Python爬虫:如何自动化下载海报?
上一讲中我给你讲了如何使用八爪鱼采集数据,对于数据采集刚刚入门的人来说,像八爪鱼这种可视化的采集是一种非常好的方式。它最大的优点就是上手速度快,当然也存在一些问题,比如运行速度慢、可控性差等。
相比之下,爬虫可以很好地避免这些问题,今天我来分享下如何通过编写爬虫抓取数据。
爬虫的流程
相信你对“爬虫”这个词已经非常熟悉了,爬虫实际上是用浏览器访问的方式模拟了访问网站的过程,整个过程包括三个阶段:打开网页、提取数据和保存数据。
在Python中,这三个阶段都有对应的工具可以使用。
在“打开网页”这一步骤中,可以使用 Requests 访问页面,得到服务器返回给我们的数据,这里包括HTML页面以及JSON数据。
在“提取数据”这一步骤中,主要用到了两个工具。针对HTML页面,可以使用 XPath 进行元素定位,提取数据;针对JSON数据,可以使用JSON进行解析。
在最后一步“保存数据”中,我们可以使用 Pandas 保存数据,最后导出CSV文件。
下面我来分别介绍下这些工具的使用。
Requests访问页面
Requests是Python HTTP的客户端库,编写爬虫的时候都会用到,编写起来也很简单。它有两种访问方式:Get和Post。这两者最直观的区别就是:Get把参数包含在url中,而Post通过request body来传递参数。
假设我们想访问豆瓣,那么用Get访问的话,代码可以写成下面这样的:
r = requests.get('http://www.douban.com')
代码里的“r”就是Get请求后的访问结果,然后我们可以使用r.text或r.content来获取HTML的正文。
如果我们想要使用Post进行表单传递,代码就可以这样写:
r = requests.post('http://xxx.com', data = {'key':'value'})
这里data就是传递的表单参数,data的数据类型是个字典的结构,采用key和value的方式进行存储。
XPath定位
XPath是XML的路径语言,实际上是通过元素和属性进行导航,帮我们定位位置。它有几种常用的路径表达方式。
我来给你简单举一些例子:
-
xpath(‘node’) 选取了node节点的所有子节点;
-
xpath(’/div’) 从根节点上选取div节点;
-
xpath(’//div’) 选取所有的div节点;
-
xpath(’./div’) 选取当前节点下的div节点