robots协议(也称为爬虫协议、爬虫规则、机器人协议等)也就是
robots.txt,网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。Robots协议是网站国际
互联网界通行的道德规范,其目的是保护网站数据和敏感信息、确保用户个人信息和隐私不被侵犯。因其不是命令,故需要搜索引擎自觉遵守。一些
病毒如
malware(马威尔病毒)经常通过忽略robots协议的方式,获取网站后台数据和个人信息。
robots.txt文件是一个
文本文件,使用
任何一个常见的文本编辑器,比如
Windows系统自带的Notepad,就可以创建和编辑它。
robots.txt是一个协议,而不是一个
命令。robots.txt是
搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉
蜘蛛程序在服务器上什么文件是可以被查看的。
转载于:https://blog.51cto.com/janson/1264015