小白学爬虫笔记2---网络爬虫引发的问题

本文介绍了网络爬虫的不同规模及对应的爬虫技术选型,并探讨了爬虫可能带来的问题,包括对服务器资源的影响、法律风险以及隐私泄露等。此外还详细解释了Robots协议的作用与使用方式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

网络爬虫的(按)尺寸(划分)

  • 爬取网页,玩转网页,小规模,爬取速度不敏感,Requests库
  • 爬取网站,系列网站,中规模,爬取速度敏感,Scrapy库
  • 爬取全网,大规模,搜索引擎,爬取速度关键,定制开发

网络爬虫可能引发的问题

网络爬虫的“骚扰”

受限于编写水平和目的,网络爬虫将会为web服务器带来巨大的资源开销。

网络爬虫的法律风险

服务器上的数据有产权归属
网络爬虫获取数据后牟利将带来法律风险

网络爬虫泄露隐私

网络爬虫可能具备突破简单访问控制的能力,获得被保护数据从而泄露个人隐私。

网络爬虫的限制

来源审查:判断User-Agent进行限制

检查来访HTTP协议头的User-Agent域,只相应浏览器或友好爬虫的访问

发布公告:Robots协议

告知所有爬虫网站的爬取策略,要求爬虫遵守。

Robots协议

Robots Exclusion Standard 网络爬虫排除标准
作用:网站告知网络爬虫那些页面可以抓取,哪些不行。
形式:在网站根目录下的robots.txt文件

User-agent: *
Disallow: /?*
Disallow: /pop/*.html
Disallow: /pinpai/*.html?*
User-agent: EtaoSpider
Disallow: /
User-agent: HuihuiSpider
Disallow: /
User-agent: GwdangSpider
Disallow: /
User-agent: WochachaSpider
Disallow: /

后四种爬虫被京东认为是恶意爬虫,拒绝这四种爬虫的访问

案例:京东的Robots协议

  1. http://www.baidu.com/robots.txt
  2. http://news.sina.com.cn/robots.txt
  3. http://www.qq.com/robots.txt
  4. http://news.qq.com/robots.txt
  5. http://www.moe.edu.cn/robots.txt (无robots协议)

注意:robots协议一定是放在网站的根目录下

Robots协议的使用

网络爬虫:自动或人工识别robots.txt,再进行内容爬取
约束性:Robots协议是建议单非约束性,网络爬虫可以不遵守,但存在法律风险。
访问量特别小可以不遵守robots协议

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值