探讨scrapy当中的pipeline何时获取item。

在Scrapy爬虫运行中,遇到pipeline无法获取item的问题。通过代码调试发现,pipeline的调用发生在spider的parse()方法内。只有在获取next_page_url之前yield item,pipeline才能接收到item并进行处理。因此,pipeline在返回item给引擎时被触发,处理后的item将继续传递给下一个item。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  问题来自于在运行spider过程中,pipeline当中写入的数据库存储过程始终得不到item传递的数据,经调试,发现了pipeline被调用的机制。

  写一段代码来测试:

  spider.py:

import scrapy
from items import Work1Item #自定义的item,用于结构化数据

class Work1Spider(scrapy.Spider):
        name = 'work1'
        start_urls = [
            'http://quotes.toscrape.com/',
        ]
	
	def parse(self, response):
	    for quote in response.xpath('//div[@class="quote"]'):
	        item = Work1Item()
		    item['author'] = quote.xpath('.//small[@class="author"]/text()').extract_first()
		    item['tags'] = quote.xpath('.//div[@class="tags"]/a[@class="tag"]/text()').extract()
	        item['quote'] = quote.xpath('./span[@class="text"]/text()').extract_first()
		next_page_url = response.xpath('//li[@class="next"]/a/@href').extract_first()
		if next_page_url is not None:
		        yield scrapy.Request(response.urljoin(next_page_url))
  pipeline.py: 

class Work1Pipeline(object):
        def process_item(self, item, spider):
                print item
                return item
  settings.py当中开启pipeline:
ITEM_PIPELINES = {
    'work1.pipelines.Work1Pipeline': 300,
}

  运行结果发现item并没有被print。

  也就是说在某片代码中缺少了成分,使得pipeline并没有获取到item。

  经过调试发现在spider.py中的parse()内部,在我们得到next_page_url之前,加上“yield item”,一切就搞定了。

  所以,pipeline是在爬取过程中返回item时调用的,pipeline对item处理后返回item,以便对下一个item进行处理。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值