Python爬取博客园数据---环境准备

本文介绍了如何使用Anaconda3搭建Python爬虫环境,包括安装Anaconda3、添加Scrapy必备包Twisted和lxml,并通过Anaconda Prompt检查和安装这些包,最后通过pip安装Scrapy,完成博客园数据爬取的环境准备。

1、安装环境Python爬取需要的环境
直接使用Anaconda3的集成环境,然后安装scrapy包。
打开游览器,搜索Anaconda3
打开游览器,搜索Anaconda3点击Anaconda3的官网进入下载
在这里插入图片描述下载完之后安装Anaconda3,一直next即可。
2、安装Scrapy必要的包
百度搜索PIPY,进入下面界面搜索Twisted,下载对应版本Twisted-19.7.0-cp37-cp37m-win_amd32.whl(根据你的Python的版本选择合适的包,名称中间的cp37是python3.7的意思,amd32是python的位数)
在这里插入图片描述下载完之后放入Anaconda3目录下,打开Anaconda自带的Anaconda Prompt (Anaconda3),进入Anaconda3的文件名录,使用命令pip install Twisted-19.7.0-cp37-cp37m-win_amd32.whl安装即可。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值