2018-12-06 18:09:55 [scrapy.spidermiddlewares.offsite] DEBUG: Filtered offsite request to 'weixin.so

本文详细介绍了在使用Scrapy爬虫抓取搜狗微信文章时遇到的过滤问题及解决方案。当Request请求的URL与allowed_domains中定义的域名不匹配时,请求会被过滤掉。文章提供了设置dont_filter=True参数来解决此问题的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

2018-12-06 18:09:55 [scrapy.spidermiddlewares.offsite] DEBUG: Filtered offsite request to ‘weixin.sogou.com’: <GET http://weixin.sogou.com/weixin?query=python&sug_type
=&s_from=input&sug=n&type=2&page=2&ie=utf8>

在爬取搜狗微信文章时报错如上所示

DEBUG: Filtered offsite request to 'weixin.sogou.com
Request中请求的 URL 和 allowed_domains 中定义的域名冲突,所以将Request中请求的URL过滤掉了,无法请求
在这里插入图片描述
在这里插入图片描述
在 Request 请求参数中,设置 dont_filter = True ,Request 中请求的 URL 将不通过 allowed_domains 过滤。
在这里插入图片描述
问题就解决了~

问题参照 PythonMaO:https://www.jianshu.com/p/c31e53fd45f6

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值