首先要有一个scrapy项目
这里用我的爬取知乎用户信息的项目来做例子:https://github.com/oldbig-carry/zhihu_user
在cmd上cd 进入项目
然后在项目目录下创建 记录文件:remain/001
然后输入:scrapy crawl zhihu -s JOBDIR=remain/001
回车运行就行了
按ctrl+c 暂停
继续运行只要再次输入:scrapy crawl zhihu -s JOBDIR=remain/001就行了
需要重新爬取就换个文件 002就行了

本文通过实例介绍了如何在Scrapy项目中实现爬虫的暂停与重启。使用命令`scrapy crawl zhihu -s JOBDIR=remain/001`启动并记录爬取状态,通过`ctrl+c`暂停爬虫。要继续爬取,只需再次输入相同命令。如需重新开始,可更改记录文件名,例如`002`。
1万+





