sccrapy 爬虫框架网数据库储存时去重的问题

本文介绍了一种使用Python Scrapy框架实现的爬虫数据去重方法,通过定义一个Pipeline来检查抓取的每一条数据是否已经存在于集合中,以此避免数据重复。当发现重复数据时,会抛出异常并终止该数据的处理流程。
from scrapy.exceptions import DropItem  #导入异常处理模块

class Baidu03Pipeline(object): def __init__(self):   #建立构造方法 self.title = set()   #定义集合 def process_item(self, item, spider): title = item['title']   #取出要进行判断数据是否重复的字段 if title in self.title:   #如果存在集合中则直接抛出异常, raise DropItem('{}已存在'.format(title)) self.title.add(title) #如果数据不重复,则加入集合 ...... #插库数据 写在这里即可。。。
return item

转载于:https://www.cnblogs.com/gaosai/p/9838740.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值