Python Scrapy爬虫多开

如果想要一个Scrapy项目里的多个爬虫通过一个命令就都运行,就需要修改crawl源码,开启蜘蛛多开模式。

1.在项目中的spiders同级目录下创建一个新文件,我这里命名为mycrawls,在该文件夹下创建一个Python文件,我这里为startspiders.py,在同级目录下再创建一个__init__.py文件。如下图所示:

2.在Python的安装目录下找到 D:\python36\Lib\site-packages\scrapy\commands\crawl.py,

我们点击进去看看可以发现蜘蛛通过,里面的run()方法运行,其中spname是爬虫的名字,所以我们可以修改里面的代码使得3爬虫得以多开。

import os
from scrapy.commands import ScrapyCommand
from scrapy.utils.conf import arglist_to_dict
from scrapy.utils.python import without_none_values
from scrapy.exceptions import UsageError


class Command(ScrapyCommand):

    requires_project = True

    def syntax(self):
        return "[options] <spider>"

    def short_desc(self):
        return "Run a spider"

    def add_options(self, parser):
        ScrapyCommand.add_options(self, parser)
        parser.add_option("-a", dest="spargs", action="append", default=[], metavar="NAME=VALUE",
                          help="set spider argument (may be repeated)")
        parser.add_option("
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值