使用scrapy下载图片只需要几部,因为系统自带得有(☄⊙ω⊙)☄
[toc]
第一步,还是定义items
title,url
第二步,定义spider
爬取的内容然后装入items中
上一篇我们说了CrawlSpider类和直接spider现在我们来说具体的spider怎么使用
如果需要使用url回调和判断就需要改写函数
def start_requests(self):
比如爬取360图片的时候网页是静态加载的,但是规律就是如果修改了s=后面的数据就可以实行翻页的操作
规律:
因此在写方法时:
每30个表示改变网页
def start_requests(self):
bes_url = 'http://image.so.com/zj?'
param = {
'ch': 'beauty', 'listtype': 'new'<