Scrapy-Redis手动添加添加去重url(指纹)

本文围绕Scrapy-Redis展开,当遇到不希望排队的数据,需与队列用同一Redis去重时,作者研究Scrapy和Scrapy-Redis源码,介绍了dupefilter.py、request.py、request_fingerprint.py文件相关内容,包括request_seen()方法、获取指纹方法等,最后实现手动添加去重指纹。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Scrapy-Redis是根据队列调度请求,新添加的排在后面。当队列的长度排了很长的队,但是有一种数据我不希望它排队,我希望它直接请求,但是需要跟队列用同一Redis去重。
然后研究了一下Scrapy和Scrapy-Redis源码,实现手动添加指纹功能。

dupefilter.py

打开scrapy_redis.dupefilter.py文件,找到request_seen()方法
dupefilter.py
在这里我们注意到同样实现了一个 request_seen() 方法,和 Scrapy 中的 request_seen() 方法实现极其类似,不过在这里集合使用的是 server对象的 sadd()操作,也就是集合不再是简单的一个简单数据结构了,在这里直接换成了数据库的存储方式。

request.py

从上图request_seen()方法中注意到request_fingerprint()方法,request_fingerprint()是获取指纹,这里Scrapy-Redis是直接用的Scrapy的方法。文件路径scrapy.utils.request.py
request_fingerprint()
从源码可以看到指纹是通过sha1加密,需要request.methodrequest.urlrequest.body必要的参数。然后返回指纹。

request_fingerprint.py

知道了指纹添加的原理,接下来开始写代码,手动添加添加去重指纹。新建request_fingerprint.py文件

# coding=utf-8
#!/usr/bin python
'''

Author: lifenggang
        ZsLfg
Python3 环境
Email: 15116211002@163.com
'''
import redis
from scrapy.utils.request import request_fingerprint


class Request_Fingerprint(object):
    def __init__(self, url):
        self.method = 'GET'     # 如果是post请求,请修改成POST
        self.url = url
        self.body = b''

class Redis_Fingerprint(object):
    def __init__(self):
        self.key = 'top_bilibili_spider:dupefilter'  # 此处修改成对应的数据库
        self.server = redis.Redis(host='192.168.0.157', port=6379, db=0, password=None)

    def sadd(self, fp):
        added = self.server.sadd(self.key, fp)  # 这将返回添加的值的数量,如果已经存在,则返回零。
        return added

def run(url):
    '''
    手动添加url指纹,存在返回True,不存在返回False
    :param url: 传入需要去重的url
    :return: 存在返回True,不存在返回False
    '''
    re = Request_Fingerprint(url=url)
    fp = request_fingerprint(re)
    rf = Redis_Fingerprint()
    added = rf.sadd(fp)   # 存在返回True,不存在返回False

    return added == 0

if __name__ == '__main__':
    run('https://api.bilibili.com/x/space/acc/info?mid=466272&jsonp=jsonp')

如果觉得文章对你有帮助,能否帮我留一个赞。

Scrapy-Redis是一个用于Scrapy爬虫的数据持久化中间件,它可以利用Redis作为数据存储和的解决方案。要在Scrapy项目中配置Redis机制,你需要按照以下步骤操作: 1. **安装scrapy-redis**: 在你的Scrapy项目目录中运行命令: ``` pip install scrapy_redis ``` 2. **添加中间件到settings.py**: 在`settings.py`文件中,确保已经包含了`scrapy_redis`的相关设置,启用它。例如: ```python DOWNLOADER_MIDDLEWARES = { 'scrapy_redis.middleware.RedisMiddleware': 700, # 其他中间件... } ITEM_PIPELINES = { 'scrapy_redis.pipelines.RedisPipeline': 300, } REDIS_PARAMS = { 'host': 'localhost', # Redis服务器地址,默认为localhost 'port': 6379, # Redis端口,默认为6379 'db': 0, # 数据库索引,一般选择0 'password': '', # 如果有密码,此处填入 } ``` 3. **启用功能**: 要启用,你需要开启RedisMiddleware,设置相应的策略。可以选择`DUPEFILTER_CLASS`来指定规则。例如,使用简单的哈希: ```python DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter" ``` 或者使用更复杂的基于请求的(如避免爬取相同的URL): ```python REDIS_KEY_PREFIX = 'your_prefix_' # 自定义Redis键前缀 ``` 4. **启动Redis客户端**: 确保你的Redis服务正在运行。如果没有,可以使用命令行启动本地Redis服务: ``` redis-server ``` 完成上述设置后,Scrapy-Redis会自动将请求ID、响应体等信息存入Redis通过哈希或自定义键进行处理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值