# 1> 爬虫基本原理
#
# 爬虫:请求网站并提取数据的自动化程序
# 写代码代替浏览器在网页上获取资源(html代码),在资源文本中(大批量的)采集想要的数据信息
#
# 2> 爬虫基本流程
# 1) 发起请求:
# 通过HTTP库向目标站点发起请求,即发送一个Request,请求可以包含额外的headers等(配置)信息,等待服务器响应。
# 2) 获取响应内容:
# 如果服务器能正常响应,会得到一个Response,Response的内容就是所要获取的页面内容,类型可能有:
# HTML,Json字符串,二进制数据(如图片视频)等类型。
# 3) 解析内容:
# 得到的内容可能是HTML,可以用正则表达式、网页解析库进行解析。可能是Json,可以直接转为Json对象解析,可能
# 是二进制数据,可以做保存或者进一步的处理.
# 4) 保存数据:
# 保存形式多种多样,可以存为文本,也可以保存至数据库,或者保存特定格式的文件。
#
# 3> Request 和 Response
# 1) 浏览器就发送消息给网址所在的服务器,这个过程叫做HTTP Request。
# 2) 服务器收到浏览器发送的消息之后,能够根据浏览器发送的消息内容,做相应处理,然后把消息回传给浏览器。这个过程叫做HTTP Response。
# 3) 浏览器接收到服务器Response信息后,会对信息进行相应处理,然后展示。
#
# 4> Request
# 1) 请求方式: 主要有GET、POST两种类型,另外还有HEAD、PUT、DELETE、OPTIONS等.
# GET请求参数都在URL后面进行实现 POST请求则需要构造一个表单,通过填写提交表单进行实现(登陆知乎等)
# 2) 请求URL: URL全称统一资源定位符,如一个网页文档,一张图片,一个视频等都可以用URL唯一来确定.
# 3) 请求头: 包含请求时的头部信息,如:User-Agent、Host、Cookies等信息.
# 4) 请求体: 请求时额外携带的数据,如表单提交时的表单数据.
#
# 5> Response
# 1) 响应状态: 有多种响应状态,如200成功、301跳转、404找不到服务器、502服务器错误.
# 2) 响应头: 如服务类型、内容长度、服务器信息、设置Cookie等.
# 3) 响应体: 最主要的部分,包含了请求资源的内容,如:网页HTML、图片二进制数据等.
#
# 6> 能抓怎样的数据?
# 1) 网页文本: 如HTML文档、Json格式文档等.
# 2) 图片: 获取的是二进制文件,保存为图片格式.
# 3) 视频: 获取的是二进制文件,保存为视频格式.
# 4) 其他: 只要能请求到的都能获取.
一次简单的爬百度图片尝试
rersponse.content-->二进制文件形式
此处已经将图片下载保存成功.
# &&&爬百度可以,爬谷歌就不行(不知道原因)
# 7> 解析方式: 1、直接处理 2、Jdon解析 3、正则表达式 4、BeautifulSoup 5、PyQuery 6、XPath
#
# 8> 我们抓到的(源代码)和浏览器上看到(经过JS渲染...等等)的不一样
#
# 9> 怎么解决JS渲染的问题?
# 1) 分析Ajax请求 2) Selenium/WebDriver 3) Splash 4) PyV8、Ghost.py
#
# 10> 怎么保存数据?
# 1) 文本: 纯文本、Json、Xml等.
# 2) 关系型数据库: 如MySQL、Oracle、SQL Server等具有结构化表结构形式存储.
# 3) 非关系型数据库: 如MongoDB、Redis等Key-Value形式存储.
# 4) 二进制文件: 如图片、视频、音频等等直接保存成特定格式即可.
#
# 注:7、8、9都没咋滴听懂,后面用的时候慢慢理解吧.
# B站课程个人笔记