1.创建项目:scrapy startproject baidu
2.生成爬虫文件:scrapy genspider baiduSpider baidu.com
3.运行命令:运行命令:scrapy crawl baiduSpider
4.保存文件的指定类型:scrapy crawl baiduSpider -o bai.xml(json/csv)

5.json格式解码:scrapy crawl baiduSpider -o bai.josn -s FEED_EXPORT_ENCODING=UTF-8
6.清除数据: cls
7. cd 指定路径 cd .. :退回上一级路径
本文介绍使用Scrapy进行爬虫开发的基本步骤,包括项目的创建、爬虫文件的生成及运行方式,同时还提供了如何指定输出文件类型及路径的方法。
65万+

被折叠的 条评论
为什么被折叠?



