Scrapy中引用settings.py里自定义的配置

本文详细介绍了如何在Scrapy的middleware和pipeline中使用settings.py中自定义的配置,通过实例演示了如何在初始化阶段获取这些配置,并解释了Scrapy内部是如何将crawler的settings赋给spider的。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在scrapy的middleware或者pipeline中,如果想使用settings.py里自定义的配置,可以通过
middleware.py

    def process_request(self, request, spider):
        print spider.settings['YOUR_SETTINGS']

pipelines.py

    def process_item(self, item, spider):
        print spider.settings['YOUR_SETTINGS']

这是因为在spider初始化时把crawler的settings赋给了spider
scrapy/spiders/__init__.py

    def _set_crawler(self, crawler):
        self.crawler = crawler
        self.settings = crawler.settings
        crawler.signals.connect(self.close, signals.spider_closed)

如果想在middleware初始化时得到,可以这样写
middleware.py

    class testMiddleware(object):

    def __init__(self, settings):
        print type(settings)
        print settings.get('YOUR_SETTINGS')

    @classmethod
    def from_crawler(cls, crawler):
        return cls(crawler.settings)

因为在scrapy/settings/__init__.py中有如下定义:

    def setmodule(self, module, priority='project'):
        self._assert_mutability()
        if isinstance(module, six.string_types):
            module = import_module(module)
        for key in dir(module):
            if key.isupper():
            self.set(key, getattr(module, key), priority)

但是只导入了大写的名字

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值