python爬虫基础知识

python爬虫为什么能实现?

我们平时使用浏览器访问网页获取信息、下载图片视频,主要步骤有三步:
第一步,浏览器向特定服务器发送请求;
第二步,服务器响应请求,将所需数据返回到自己的电脑中;
第三步,浏览器解析返回的数据,以一定的格式呈现数据。

python网络爬虫可以使用不同的函数、库,来实现上述的三个步骤,从而自动、批量获取想要的信息。

向特定服务器发送请求有不同的类型,其中最常用的是GET请求和POST请求,可以使用经典requests库中的get函数和post来实现;
在得到服务器返回的数据response后,可以使用beautifulsoup库来寻找想要的数据(beautifulsoup库简洁明了,使用方便,推荐入门学习使用)(最好学习一下正则表达式和re库,来进行所需信息的匹配查找);
在获取想要的数据后,可以使用json库或csv库将数据保存为json或csv格式(数据量比较大时最好保存到数据库中,但非分布式爬虫一般没有这个必要)。

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值