Python-玩转数据-scrapy之pipeline

一、关于scrapy中pipleline的基本认识

首先我们看看Item Pipeline在Scrapy中的架构,如下图所示。
在这里插入图片描述
Item Pipeline又称之为管道,顾名思义就是对数据的过滤处理,其主要的作用包括如下:

  • 清理HTML数据。
  • 验证爬取数据,检查爬取字段。
  • 查重并丢弃重复内容。
  • 将爬取结果保存到数据库。

二、几个核心的方法

创建一个项目的时候都会自带pipeline其中就实现了process_item(item, spider)方法

  1. open_spider(spider)就是打开spider时候调用的
  2. close_spider(spider)关闭spider时候调用
  3. from_crawler(cls, crawler)一般用来从settings.py中获取常量的
  4. process_item(item, spider)是必须实现的,别的都是选用的

三、几个常用方法的介绍

  1. process_item(item, spider)参数介绍 item是要处理的item对象,spider当前要处理的spider对象
  2. process_item(item, spider)返回值,返回item就会继续给优先级低的item pipeline二次处理,如果直接抛出DropItem的异常就直接丢弃该item
  3. open_spider(spider)是在开启spider的时候触发的,常用于初始化操作(常见开启数据库连接,打开文件)
  4. close_spider(spider)是在关闭spider的时候触发的,常用于关闭数据库连接
  5. from_crawler(cls, crawler)是一个类方法(需要使用@classmethod装饰器标识),常用于从settings.py获取配置信息

四、item pipeline说明

item pipiline组件是一个独立的Python类,其中process_item()方法必须实现

import something

class SomethingPipeline(object):
def __init__(self):
    # 可选实现,做参数初始化等
    # doing something

def process_item(self, item, spider):
    # item (Item 对象) – 被爬取的item
    # spider (Spider 对象) – 爬取该item的spider
    # 这个方法必须实现,每个item pipeline组件都需要调用该方法,
    # 这个方法必须返回一个 Item 对象,被丢弃的item将不会被之后的pipeline组件所处理。
    return item

def open_spider(self, spider):
    # spider (Spider 对象) – 被开启的spider
    # 可选实现,当spider被开启时,这个方法被调用。

def close_spider(self, spider):
    # spider (Spider 对象) – 被关闭的spider
    # 可选实现,当spider被关闭时,这个方法被调用

五、数据验证

让我们来看一下以下这个假设的pipeline,它为那些不含税(price_excludes_vat 属性)的item调整了 price 属性,同时丢弃了那些没有价格的item:

from scrapy.exceptions import DropItem

class PricePipeline(object):

    vat_factor = 1.15

    def process_item(self, item, spider):
        if item['price'
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值