参考 : http://www.th7.cn/Program/Python/201704/1154208.shtml
原因是网站的防爬虫配置起到了作用
(1):第一种方法是在命令上加上-s USER_AGENT='Mozilla/5.0'
(2):第二种方法是修改scrapy默认配置中的user-agent默认值
default_settings.py文件C:\Miniconda2\Lib\sitepackages\scrapy\settings\default_settings.py
把USER_AGENT = 'Scrapy/%s (+http://scrapy.org)' % import_module('scrapy').__version__
改为USER_AGENT = 'Mozilla/5.0'
解决网站防爬虫配置
本文介绍了当遇到网站防爬虫配置导致的爬取问题时的两种解决方案:一是通过命令行添加特定参数;二是修改Scrapy默认配置中的User-Agent值。

397

被折叠的 条评论
为什么被折叠?



