防止屏蔽网络蛛蛛网络爬虫配置

本文介绍了一种针对新建网站的爬虫屏蔽方法,通过Nginx配置文件中的location指令来拒绝特定User-Agent的访问请求,以此达到节省资源和保护网站安全的目的。

新建立的网站,未必需要流量,各个方面还在优化,也为了节省资源和网站安全,需要屏蔽一些东西的

location / {
                       if ($http_user_agent ~* "robot|qihoobot|Baiduspider|Googlebot|Googlebot-Mobile|Googlebot-Image|Mediapartners-Google|Adsbot-Google|Feedfetcher-Google|Yahoo! Slurp|Yahoo! Slurp China|YoudaoBot|Sosospider|Sogou spider|Sogou web spider|MSNBot|ia_archiver|Tomato Bot") {  
                return 403;  
        }  
                   }



测试 ...



curl -I -A "qihoobot" www.xxx.com

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值