Python 网络爬虫的常用库汇总

一、请求库:实现 HTTP 请求操作

  • urllib:一系列用于操作URL的功能,Python的内置库,直接使用方法import导入即可。。
  • requests:基于 urllib 编写的请求库,阻塞式 HTTP 请求库,发出一个请求,一直等待服务器响应后,程序才能进行下一步处理。
  • selenium:自动化测试工具。一个调用浏览器的 driver,通过这个库你可以直接调用浏览器完成某些操作,比如输入验证码。实际上是用来浏览器的一个库,做爬虫时可能会碰到使用JS渲染的网页,使用requests来请求时,可能无法正常获取内容,我们使用selenium可以驱动浏览器获得渲染后的页面有头浏览器的代表
  • aiohttp:基于 asyncio 实现的 HTTP 框架,提供异步的web服务的库。异步操作借助于 async/await 关键字,使用异步库进行数据抓取,可以大大提高效率。
  • phantomjs :是一个无界面浏览器,在后台运行。通过JS在后台运行有关浏览器的一切操作省去可视化浏览器的操作。无头浏览器的代表

二、解析库:从网页中提取信息

  • re:使用正则表达式(regex)库提取信息,Python的内置库
  • lxml:支持HTML和XML的解析,支持XPath解析方式,而且解析效率非常高。
  • beautifulsoup:是一个网络解析库,依赖于lxml库。html 和 XML 的解析,从网页中提取信息,同时拥有强大的API和多样解析方式。
  • pyquery:也是网页解析库,较bs4更加方便,语法和Jquery无异。jQuery 的 Python 实现,能够以 jQuery 的语法来操作解析 HTML 文档,易用性和解析速度都很好。
  • tesserocr:一个 OCR 库,在遇到验证码(图形验证码为主)的时候,可直接用 OCR 进行识别。

三、存储库:Python 与数据库交互

  • pymysql:一个纯 Python 实现的 MySQL 客户端操作库。
  • pymongo:一个用于直接连接 mongodb 数据库进行查询操作的库。
  • redisdump:一个用于 redis 数据导入/导出的工具。基于 ruby 实现的,因此使用它,需要先安装 Ruby。

四、爬虫框架

  • Scrapy:很强大的爬虫框架,可以满足简单的页面爬取(比如可以明确获知url pattern的情况)。用这个框架可以轻松爬下来如亚马逊商品信息之类的数据。但是对于稍微复杂一点的页面,如 weibo 的页面信息,这个框架就满足不了需求了。
  • Crawley:高速爬取对应网站的内容,支持关系和非关系数据库,数据可以导出为 JSON、XML 等。
  • Portia:可视化爬取网页内容。
  • newspaper:提取新闻、文章以及内容分析。
  • python-goose:java 写的文章提取工具。
  • cola:一个分布式爬虫框架。项目整体设计有点糟,模块间耦合度较高。

五、Web 框架库

  • flask:轻量级的 web 服务程序,简单,易用,灵活,主要来做一些 API 服务。做代理时可能会用到。
  • django:一个 web 服务器框架,提供了一个完整的后台管理,引擎、接口等,使用它可做一个完整网站。

 

参考链接:

https://www.cnblogs.com/shiyanlou/p/11504767.html

https://www.cnblogs.com/dadahuan/p/9556706.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值