编写简单Robot.txt

本文介绍了如何通过Robot.txt文件来限制搜索引擎爬虫对网站内容的抓取,包括禁止爬取特定目录及单个页面的方法,并提供了针对不同搜索引擎的具体设置示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

编写Robot.txt的目的主要是问了限制搜索引擎爬虫对网页的爬取,告知爬虫不要 爬取该网页。

禁止爬虫爬取的单位一般是目录,即不容许爬虫爬取整个目录下的文件,此时robot.txt的

书写方法如下:

User-agent:爬虫名称

Disallow:/css/

Disallow:/temp/

几个搜索引擎的爬虫名称:

           搜索引擎名称         爬虫名称

            Google             Googlebot

            Baidu               Baiduspider

            MSN                 MSNBOT

如果只是禁止某一个网页被爬取,可以在一个网页中添加如下内容:

<meta name="robots" content= "noindex">

如果不希望爬虫爬取网页所包含的链接,可以添加以下内容:

<meta name="robots" content="nofollow">

转载于:https://my.oschina.net/u/1040123/blog/125580

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值