scrapy -- 暂停爬虫、恢复爬虫
于 2022-03-17 17:55:30 首次发布
本文介绍了如何操作和管理爬虫。首先,启动爬虫使用`scrapycrawlspider-sJOBDIR=record/spider-1`命令,其中`record/spider-1`保存爬虫状态。若要暂停,只需在终端输入Ctrl+C,等待爬虫完全暂停。之后,通过相同命令可恢复爬虫继续执行。
本文介绍了如何操作和管理爬虫。首先,启动爬虫使用`scrapycrawlspider-sJOBDIR=record/spider-1`命令,其中`record/spider-1`保存爬虫状态。若要暂停,只需在终端输入Ctrl+C,等待爬虫完全暂停。之后,通过相同命令可恢复爬虫继续执行。

被折叠的 条评论
为什么被折叠?