怎么设置不让搜索引擎收录某些页面

本文介绍了robots.txt文件的作用及语法,并详细解析了如何通过设置robots.txt文件来控制搜索引擎蜘蛛的抓取行为。同时,文章还讲解了如何利用meta标签中的robots属性来控制搜索引擎是否索引网页及其链接。

一、关于robots文件

    1. 搜索引擎蜘蛛访问网站时,会先查看网站根目录下有没有robots.txt文件,该文件用于指令搜索引擎禁止抓取网站某些内容或 允许抓取某些内容。注意:就算允许抓取所有内容,也要建一个空的robots.txt文件放在根目录下。

    2. 只有在需要禁止抓取某些内容时,robots.txt才有意义,如果该文件为空,就意味着允许搜索引擎抓取所有内容。

    3. 语法解释:

         最简单的robots文件:禁止搜所有搜索引擎抓取任何内容,写法为:

         User-agent:*             

         Disallow:/

        其中,User-agent用于指定规则适用于哪个蜘蛛。通配符*代表所有搜索引擎。如只适用于百度蜘蛛,则写为:User-agent:Baiduspider。谷歌蜘蛛:Googlebot.

                   Disallow告诉蜘蛛不要抓取某些文件。如 Disallow:/post/index.html,告诉蜘蛛禁止抓取Post文件夹下index.html文件。 Disallow后什么都不写,代表允许抓取一切页面。

二、关于meta robots标签

     1. 用于指令搜索引擎禁止索引本页内容。

     2. 语法解释:<meta name="robots" content="noindex,nofollow"> 意思是 禁止所有搜索引擎索引本页面,禁止跟踪本页面上的链接。

        noindex:告诉蜘蛛不要索引本页面。

        nofollow:告诉蜘蛛不要跟踪本页面上的链接。

        nosnippet:告诉蜘蛛怒要在搜索结果中显示说明文字。

        noarchive:告诉搜索引擎不要显示快照。

        noodp:告诉搜索引擎不要使用开放目录中的标题和说明。

转载于:https://www.cnblogs.com/xingfudexu/p/9337877.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值