1. 什么是爬虫,爬虫的本质是什么?
网络爬虫Web Spider,是按照一定的规则,自动地抓取互联网上的信息的程序,本质就是一个程序或者脚本。(把网络比喻成一个蜘蛛网,爬虫就是一只在网上爬来爬去的蜘蛛)
爬虫本质上只做了两件事情:请求和解析
2. 爬虫工作原理
模拟浏览器打开网页,获取网页中我们想要的那部分数据。
当你在浏览器中输入地址后,经过DNS服务器找到服务器主机,向服务器发送一个请求,服务器经过解析后发送给用户浏览器结果,包括html,js,css等文件内容,所以用户看到的浏览器的结果就是由HTML代码构成的,我们爬虫就是为了获取这些内容,通过分析和过滤html代码,从中获取我们想要资源(文本,图片,视频…)
所以爬虫本质上只做了两件事情:请求和解析,但是爬虫的开发是非常困难的,需要不停的分析网站的请求,不停的跟随目标网站来升级自己的程序,试探解密、破解目标网站限制
3.爬虫的基本框架
爬虫基本框架由管理器、 下载器 、 解析器构成
管理器:管理待抓取的url集合和已抓取的url集合,防止重复和循环抓取
(添加新的url到待抓取集合,判断是否还有待抓取url,获取待抓取的url,判断待添加url是否在已抓取