python scrapy爬虫遇见301_scrapy 爬虫关闭但实际任务并没完成

一个Python Scrapy爬虫在处理房地产网站时,遭遇了301重定向问题,并在声称完成6472个任务后自行关闭。尽管有228336个job待爬,但爬虫显示finish reason为'finished'。代码中,爬虫读取文件中的house_id_dict,并跟随每个ID生成新的URL进行抓取。问题可能是由于大量请求导致的队列溢出,或者与301重定向响应有关。目前尚未发现内存泄漏或其他系统层面的问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

2017-10-17 11:48:18 [scrapy.core.engine] INFO: Closing spider (finished)

29957 2017-10-17 11:48:19 [scrapy.statscollectors] INFO: Dumping Scrapy stats:

29958 {'downloader/request_bytes': 2175351,

29959 'downloader/request_count': 6472,

29960 'downloader/request_method_count/GET': 6472,

29961 'downloader/response_bytes': 494012842,

29962 'downloader/response_count': 6472,

29963 'downloader/response_status_count/200': 6419,

29964 'downloader/response_status_count/301': 53,

29965 'dupefilter/filtered': 8,

29966 'finish_reason': 'finished',

29967 'finish_time': datetime.datetime(2017, 10, 17, 11, 48, 19, 59301),

29968 'item_scraped_count': 6417,

29969 'log_count/DEBUG': 12891,

29970 'log_count/ERROR': 1,

29971 &#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值