解决python的scrapy爬虫时Memory error问题问题

本文介绍了解决Scrapy爬虫在PyCharm环境下因并发任务过多导致的MemoryError问题。通过调整代码,使用逐行读取链接并yield返回的方式,避免了一次性加载大量链接至内存,有效防止了内存溢出。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

解决python的scrapy爬虫时Memory error问题

用pycharm运行scrapy爬虫代码时竟然出现Memory error错误,比较之后发现是并发任务过多导致内存不够用,这时候去调整setting文件夹中的CONCURRENT_REQUESTS_PER_DOMAIN = 16是不管用的。所以需要重写并发代码部分;
具体问题代码如下:

next_pages = sel.xpath('//*[@id="list"]/div[1]/div[3]/div[3]/span/a/@href').extract()
        for next_page in next_pages:
            next_page_r = 'https:' + str(next_page)
            next_pages.append(next_page_t)
        if len(next_pages) != 0:
            yield Request(next_pages[0], callback=self.parse)

解决办法是:

逐行读取

如果用上面代码来读取下一页的链接的话,会一次性把所有链接都读到内存里来,导致内存爆掉,那么应该是一行一行地读它:

next_pages = sel.xpath('//*[@id="list"]/div[1]/div[3]/div[3]/span/a/@href').extract()
            for next_page in next_pages:
                next_page = 'https:' + str(next_page)
                if next_page:
                    yield scrapy.Request(next_page, callback=self.parse)

即:每用for循环一次就将进行一次yield返回一次,这样就可以进行一行行的进行返回,不会导致内存爆掉;

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值