1.防爬虫
本质上爬虫也是一种请求,只不过是由脚本或者机器人自动发起的,那么请求就会带referer,就会带ua,一般爬虫都会带一些特殊的标识,对于referer,我们可以限制我们认可的域名,对于ua,...也可以借助其他的一些web防护工具来实现爬虫防护。比如Cloudflare机器人管理、AppTrana以及其他WAF防护能力等。...2.ip限制
可以基于openresty+LuaJIT能力,在用户防护主站的时候,拦截请求,通过Lua脚本进行ip识别和验证,对于合法请求则放过,去加载讲台资源,对于非法ip则直接返回403或者其他受限页面...1.爬虫防护
设置Referer验证,只允许来自xxx.com(网站自己域名)和其子域的请求访问图片、CSS和JavaScript以及html文件,其他来源的请求会返回403Forbidden。...否则,如果ip在redis维护的黑名单中,则返回403进制访问
如果ip不在黑白名单中,则使用geoip2检查访问ip所属区域,如果是目标区域则放行,否则禁止访问。