scrapyd部署爬虫项目

本文详细介绍了如何使用Scrapyd部署爬虫项目,包括安装Scrapyd和scrapyd-client,配置scrapy.cfg,以及通过命令行进行项目上传、启动和管理等关键步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

scrapyd部署爬虫项目

功能:它就相当于是一个服务器,用于将自己本地的爬虫代码,打包上传到服务器上,让这个爬虫在服务器上运行,可以实现对爬虫的远程管理。(远程启动爬虫,远程关闭爬虫,远程查看爬虫的一些日志。)

  1. scrapyd的安装
pip install scrapyd
  1. scrapyd-client的安装
pip install scrapy-client

注意:请务必保持scrapyd和scrapyd-client的版本号一致,如果最新版本号不一致,请直接指定版本号安装pip install 第三方库名(scrapyd-client)==版本号(1.2.0a1)
3. 上述服务和客户端安装完成之后,打开cmd输入scrapyd
scrapyd
然后打开浏览器访问127.0.0.1:6800,出现图则说明成功开启scrapyd服务

scrapyd服务
4. 打开已经完成的爬虫项目
修改配置文件
修改scrapy.cfg文件
配置文件的修改
5. 此时打开一个新的cmd命令窗口,使用scrapyd-client客户端连接scrapyd服务
a> 查看连接是否正常,命令:scrapyd-deploy
测试连接正常
b>查看当前可用于打包上传的爬虫项目,命令:scrapyd-deploy -l
可打包的爬虫项目
c>打包并上传项目,命令:scrapyd-deploy douban -p doubanspider
打包上传文件
d>上传成功之后,启动爬虫,命令:curl http://localhost:6800/schedule.json -d project=doubanspider -d spider=douban
启动爬虫
6. 查看信息
查看爬虫
运行信息

后记:

一、

  1. 由于部署scrapyd需要curl指令,curl命令是linux中的指令,如果想要在windows中运行,就需要下载并安装curl命令。
    百度网盘下载地址:链接: https://pan.baidu.com/s/1N2gMo_NewgX7sIu94pelmg 提取码: suwk
    官方下载地址(请下载对应版本):https://curl.haxx.se/download.html
  2. 下载对应文件后解压,进入bin目录下
    curl文件目录
    输入cmd命令(切换进入刚刚解压的curl文件路径):当出现下图所示时,说明该版本curl文件可用,然后复制bin路径,并添加到环境变量。例如(D:\software\curl-7.61.1_5-win64-mingw\curl-7.61.1-win64-mingw\bin)
    测试curl
  3. 添加环境变量,找到Path变量,点击编辑,在末尾处粘贴刚才复制的bin文件夹路径
    环境变量之间一定要以英文分号间隔;
    在这里插入图片描述
    添加完成之后,点击确定,就可以使用curl指令了
    二、
    关于操作上传爬虫项目的一些常用但是不必须的指令(以下命令均在cmd中使用)
  4. 查看已经上传至scrapyd服务的项目,命令:curl http://localhost:6800/listprojects.json
curl  http://localhost:6800/listprojects.json
  1. 查看某一个项目中所有爬虫的名称,命令:curl http://localhost:6800/listspiders.json?project=爬虫的项目名称
curl  http://localhost:6800/listspiders.json?project=doubanspider
  1. 删除失效的项目,命令:curl http://localhost:6800/delproject.json -d project=爬虫的项目名称
curl http://localhost:6800/delproject.json -d project=doubanspider
  1. 取消爬虫任务,命令:curl http://localhost:6800/cancel.json -d project=爬虫的项目名称 -d job=jobid
curl http://localhost:6800/cancel.json -d project=doubanspider -d job=ba470880c25b11e88d83448a5b683e8b

jobid

Scrapyd是一个基于Twisted的Python爬虫部署工具,它可以帮助我们方便地管理和部署自己编写的爬虫程序。 以下是使用Scrapyd部署爬虫的步骤: 1. 安装Scrapyd 可以使用pip命令安装Scrapyd: ``` pip install scrapyd ``` 2. 创建Scrapy项目 在命令行窗口中输入以下命令,创建Scrapy项目: ``` scrapy startproject myproject ``` 其中myproject是项目名称。 3. 创建爬虫程序 在myproject/spiders目录下创建一个爬虫程序,例如: ```python import scrapy class MySpider(scrapy.Spider): name = 'myspider' allowed_domains = ['example.com'] start_urls = ['http://www.example.com'] def parse(self, response): # 爬虫解析方法 pass ``` 这里创建了一个名为myspider的爬虫程序,它从http://www.example.com开始爬取数据。 4. 配置Scrapy项目 修改myproject/settings.py文件,添加如下配置: ```python BOT_NAME = 'myproject' SPIDER_MODULES = ['myproject.spiders'] NEWSPIDER_MODULE = 'myproject.spiders' ITEM_PIPELINES = { 'scrapy.pipelines.images.ImagesPipeline': 1 } IMAGES_STORE = 'images' ``` 这里添加了一个名为ImagesPipeline的管道,用于下载图片,并将图片保存到images目录下。 5. 打包Scrapy项目 在命令行窗口中进入Scrapy项目的根目录,使用以下命令打包Scrapy项目: ``` python setup.py sdist ``` 这时会在Scrapy项目的根目录下生成一个dist目录,其中包含了一个压缩包,例如myproject-0.1.tar.gz。 6. 部署Scrapy项目 在命令行窗口中进入Scrapy项目的根目录,使用以下命令将Scrapy项目部署Scrapyd服务器上: ``` scrapyd-deploy <target> -p <project> --version <version> ``` 其中,: - `<target>`是Scrapyd服务器的名称,例如default; - `<project>`是Scrapy项目的名称,例如myproject; - `<version>`是Scrapy项目的版本号,例如0.1。 执行此命令后,Scrapyd会自动将Scrapy项目部署Scrapyd服务器上,并生成一个新的项目版本。 7. 启动ScrapydScrapyd服务器上启动Scrapyd服务: ``` scrapyd ``` 这时可以在浏览器中访问http://localhost:6800/,查看Scrapyd服务是否正常运行。 8. 运行爬虫 使用以下命令在Scrapyd服务器上运行爬虫程序: ``` curl http://localhost:6800/schedule.json -d project=myproject -d spider=myspider ``` 其中,myproject和myspider分别为你的项目名称和爬虫程序名称。 运行此命令后,Scrapyd会在Scrapyd服务器上启动myspider爬虫程序,并开始爬取数据。在浏览器中访问http://localhost:6800/jobs,可以查看爬虫程序的运行状态。 至此,使用Scrapyd部署爬虫的步骤已经完成。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值