Scrapy创建第一个爬虫项目

一、创建项目
cmd打开命令行
打开项目保存的文件夹地址如下图
我的项目保存在D:\Pycharm\ScrapyProjects
然后在终端输入 scrapy startproject 项目名称(此处我的项目名称为WeiboSpider)在这里插入图片描述
以上则为创建项目成功
此时存储位置会出现创建的项目文件夹,如下图:
在这里插入图片描述
二、打开爬虫项目
用Pycharm打开项目文件夹
则有如下的文件
在这里插入图片描述
再在Pycharm终端创建爬虫项目,如下图所示输入
在这里插入图片描述
weibo是爬虫名称,weibo.com是网站域名
三、运行爬虫文件
在上图终端输入scrapy crawl weibo
然后出现了下图错误
在这里插入图片描述
解决方法:cmd打开命令行,输入pip install pypiwin32安装pypiwin32,如下图则为安装成功
在这里插入图片描述
然后再在终端输入scrapy crawl weibo
在这里插入图片描述
最后显示结果如下图:
在这里插入图片描述
借鉴了此篇博客写的https://blog.youkuaiyun.com/dayun555/article/details/79415782
以上仅为个人操作编辑
菜鸟一枚,写下来以备不时之需。
文档还不够完整,后续更新

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值