所有的设置都是在scrapy爬虫项目中的settings.py 文件中进行设置。
Step 1 . 设置爬虫不遵循 robots.txt协议
第22行:
ROBOTSTXT_OBEY = False
Step 2 . 设置取消Cookies
第36行:
COOKIES_ENABLED = False
Step 3 . 设置用户代理值(USER_AGENT)
第19行:
USER_AGENT = 'Mozilla/xxx (Windows xxx; Winxx; xxx) AppleWebKit/xxx (KHTML, like Gecko) Chrome/xxxx Safari/xxx'
本文介绍了Scrapy爬虫项目的三个关键设置:禁用对robots.txt协议的遵循、关闭Cookies功能以及配置用户代理(USER_AGENT),这些设置有助于提高爬虫效率及避免被目标网站封禁。
3488





