前段时间学习了用Python写爬虫,使用Scrapy框架爬取京东的商品信息。商品详情页的价格是由js生成的,而通过Scrapy直接爬取的源文件中无价格信息。
通过Selenium、Phantomjs便能实现。下面先介绍Phantomjs。
Phantomjs
作为一个基于webkit内核的没有UI界面的浏览器,大家不必被这个名字吓到,以为是很复杂的技术,其实只是一个浏览器啦。而其中的一些点击、翻页等操作则由代码实现。Phantomjs提供javascript API接口,即我们可以通过js与webkit内核交互。
只需通过Phantomjs test.js的命令就能成功访问页面,并将js生成后的内容下载下来。
|
|
关于Phantomjs的详细介绍可以参照这篇博文:http://blog.youkuaiyun.com/tengdazhang770960436/article/details/41320079
Selenium
作为一个用于Web应用程序测试的工具,其测试直接运行在浏览器中,框架底层使用JavaScript模拟真实用户对浏览器的操作,从终端用户的角度测试应用程序。将Selenium与Phantomjs联系起来,便是我们可以通过使用Selenium操作Phantomjs访问网页以获得js生成后的网页。
在我看来,这里Selenium的作用就像是Scrapy调用Phantomjs的中介。我也存有疑问:“Scrapy是否能直接调用Phantomjs?” 期望回复
Scrapy使用Selenium
需要弄懂一个概念,下载中间件,可以阅读下官方文档http://scrapy-chs.readthedocs.io/zh_CN/1.0/topics/downloader-middleware.html
在settings.py加入
|
|
第一行为中间件的位置,需要与自己目录对应,我的目录是这样的:
如果运行遇到robots.txt的问题,需要将settings.py中的
|
|
下面贴上,自定义中间件的代码:
|
|
在spiders/jd.py中parse()方法接收到的response则是我们自定义中间件返回的结果。我们得到的便是js生成后的界面。
|
|