为什么要反爬虫?
网络爬虫,是编写的一个自动提取网页内容的程序,它为搜索引起从万维网上下载所需的网页内容,是搜索引擎的重要组成部分。但当网络爬虫被滥用后,互联网上就会出现太多同质的东西,原创得不到保护。
于是,很多网站开始反爬虫网络,想方设法保护自己的内容。他们根据ip访问频率,浏览网页速度,账户登陆,输入验证,flash封装,ajax混淆等技术,来反对网络爬虫。
所以可能会导致真正急需数据的用户可能得不到需要的数据。为了应对这种情况,简单提出一些应对反爬虫的策略。
应对反爬虫策略
策略一:设置download_delay
- 作用:设置下载的时间等待,大规模集中的访问对服务器的影响最大,相当于段时间中增大服务器负载。
- 缺点:下载时间等待长,不能满足段时间大会末抓取的要求,太短则大大增加了被ban的几率。
策略二:禁止cookies
- Cookie,有时也用其复数形式 Cookies,指某些网站为了辨别用户身份、进行 session
跟踪而储存在用户本地终端上的数据(通常经过加密)。 - 作用: 禁止cookies也就防止了可能使用cookies识别爬虫轨迹的网站得逞。
- 实现: COOKIES_ENABLES=False
策略三:使用user agent池(拓展: 用户代理中间件)
- 为什么使用? scrapy本身是使用Scrapy/0.22.2来表明自己身份的。这也就暴露了自己是爬虫的信息。
- user agent,是指包含浏览器信息、操作系统信息等的一个字符串,也称之为一种特殊的网络协议。服务器通过它判断当前访问对象是浏览器、邮件客户端还是网络爬虫。