scrapy框架 爬取重庆工程学院
百度搜索重庆工程学院,看到如图所示
因为我使用scarpy框架,不知道如何创建项目的,可以看看我之前的文章(简单的理了一下步奏)
Scrapy 架构
下图是 Scrapy 框架的组成结构,并从数据流的角度揭示 Scrapy 的工作原理
对于用户来说, Spider 是最核心的组件, Scrap y 爬虫开发是围绕实现 Spider 展开 的。接下来,看一下在框架中的数据流。Request 和 Response 是 HTTP 协议中的术语, 即 HTTP 请求和 HTTP 响应,Scrap y 框架中定义了相应的 Request 和 Response 类,这里的 Item 代表 Spider 从页面中爬取的一项数据。 最后,我们来说明以上几种对象在框架中的流动过程。
1、当 SPIDER 要爬取某 URL 地址的页面时, 需使用该 URL 构造一个 Request 对象, 提 交给 ENGINE(图 1)。
2、Request对象随后进入SCHEDULER按某种算法进行排队,之后的某个时刻SCHEDULER 将其出队, 送往 DOWNLOADER(图中的 2、3、4)
3、DOWNLOADER 根据 Request 对象中的 URL 地址发送一次 HTTP 请求到网站服务器, 之 后用服务器返回的 HTTP 响应构造出一个 Response 对象, 其中包含页面的 HTML 文本 (图 2 中的 5)
4、Response 对象最终会被递送给 SPIDER 的页面解析函数(构造 Request 对象时指定) 进行处理,页面解析函数从页面中提取数据, 封装成 Item 后提交给 PIPELINES 进行处理, 最终可能由 Exporter 以某种数据格式写入文件(CSV、json 等);另一方面页面解析函数还 从页面中提取链接 url,构造出新的 Request 对象提交给 Engine(图 6,7,8)。
理解了框架中的数据流,也就理解了 Scrapy 爬虫的工作原理。如果把框架中的组件比 作人体的各个器官,Request 和 Response 对象便是血液,Item 则是代谢产物
(一)首先分析页面
通过工具,我们可以发现我们需要的内容位于 li 标签当中,是一条一条的数据,其中的信息包含有时间、标题和详情页的链接,但是我们发现了一个问题,就是超链接的href属性并不完全,所以当我们需要爬取更多详情页的信息时,需要将链接补充完整。
我们可以看出,在第一阶段我们可以爬取到的有三个实体,链接(url),时间(date),标题(title),因为后面要做详情页的爬取,所以我选择在详情页的时候在爬取标题,当然在这爬取是一样的,只有你的XPath是找对了是没有问题。
我使用的是谷歌浏览器,安装了一个插件(XPath Helper),可以自己去下载哟,下载之后解压,在浏览器的右上角,点击下方如图所示:
再 点击 “更多程序”—>“扩展程序” —>将“开发者工具”打开—>“加载已解压的扩展程序”
选择好了就可以用了哟!!!!
接下来就是重头戏哟!!!
创建爬虫项目和文件
我使用的是 Anconda里面的Spyder,使用pycharm也是可以的,只要自己熟悉就可以啦~~~~
我还是写下创建项目的命令
scrapy startproject cqie
创建文件:
cd cqie #进入项目
scrapy genspider cqiel cqie.edu.cn # cqiel是爬虫名 cqie.edu.cn是域名,千万不能写成http://www.cqie.edu.cn/,不了解域名的,可以去学习学习...
接下来就是编写代码了:
首先是cqiel.py文件
def parse(self, response):
item={
}
# print(response.text)
entryList=response.xpath("//div[@class='sortlist']/dl//li")
# print(len(entryList))
for i in entryList:
item['url'] = response.urljoin(i.xpath("./a/@href").get())
item['date'] = i.xpath("./span/text()").get()
#print(item)
yield item
深层网页爬取:
scrapy.Request:
常用参数说明
Url:
Callback:回调函数,执行完成当前方法后调用
Meta:元数据,用于数据传递
def parse_detail(self, response):
item=response.meta['item']
item['title']=response.xpath("//div[@id='text']/h1/text()").get()
item['laiyuan']=response.xpath("//div[@id='text']/h3/text()").get().split()[1].replace("来源:","")
item['author']=response.xpath("//div[@id='text']/h3").xpath("substring-before(.,'来源:')"<