网站安全防护全攻略
1. 基于 robots.txt 阻止主机访问
一个较为复杂的 robots.txt 或 robots(AllowRoot).txt 文件示例如下:
User-agent: *
Disallow: /_vti_bin/
Disallow: /clienthelp/
Disallow: /exchweb/
Disallow: /remote/
Disallow: /tsweb/
Disallow: /aspnet_client/
Disallow: /images/
Disallow: /_private/
Disallow: /_vti_cnf/
Disallow: /_vti_log/
Disallow: /_vti_pvt/
Disallow: /_vti_script/
Disallow: /_vti_txt/
Allow All traffic:
User-agent: *
Disallow: /
大多数搜索引擎机器人,如谷歌、雅虎和微软的机器人,都会遵守这些规则。但如果有机器人公然无视规则,它就可能会下载你整个网站的内容。
为了解决这个问题,可以主动阻止违规的机器人。有几种方法可以实现:
- 阻止已知的不良机器人用户代理 :这种方法操作简单,但用户代理很容易伪装自己,所以需要不断更新不良用户代理列表。
- 阻止 IP 地址 :这种方法也很有效,但同样需要持续更新被阻止的 IP 列表。
超级会员免费看
订阅专栏 解锁全文
887

被折叠的 条评论
为什么被折叠?



