Python爬虫——scrapy_多条管道下载

  1. 定义管道类(在pipelines.py里定义)
import urllib.request

class DangDangDownloadPipelines:
    def process_item(self, item, spider):

        url = 'http:' + item.get('src')
        filename = '../books_img/' + item.get('name') + '.jpg'
        urllib.request.urlretrieve(url, filename)


        return item
  1. 在settings中开启管道
    模仿之前的管道写一个放到ITEM_PIPELINES里就好了
'scrapy_dangdang_39.pipelines.DangDangDownloadPipelines': 301

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值