爬虫的基础和requests模块的使用
概念
什么爬虫
网络爬虫(又被称为网页蜘蛛,网络机器人)就是模拟浏览器发送网络请求,接收请求响应,一种按照一定的规则,自动地抓取互联网信息的程序。
模拟浏览器,发送请求,获取响应
原则上,只要是浏览器(客户端)能做的事情,爬虫都能够做
网络爬虫按照系统结构和实现技术,大致可以分为以下几种类型:通用网络爬虫(General Purpose Web Crawler)通常指搜索引擎的爬虫、聚焦网络爬虫(Focused Web Crawler)针对特殊网站的爬虫、增量式网络爬虫(Incremental Web Crawler)、深层网络爬虫(Deep Web Crawler)。 实际的网络爬虫系统通常是几种爬虫技术相结合实现的,我们这里主要讲聚焦爬虫的基础使用
聚焦爬虫工作原理以及关键技术
- 网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索;对于聚焦爬虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。
相对于通用网络爬虫,聚焦爬虫还需要解决三个主要问题:
(1) 对抓取目标的描述或定义;
(2) 对网页或数据的分析与过滤;
(3) 对URL的搜索策略。
爬虫获取数据的用途:
在网页或者app上进行展示;
进行数据分析或者机器学习相关的项目;
爬虫的更多用途:
12306抢票
网站上的投票
短信轰炸
爬虫的流程:
首先选取一部分URL,把这些URL放到待爬取队列。
从队列取出URL,然后解析DNS得到主机IP,然后保存这个IP对应的服务器里下载HTML页面,保存到搜索引擎的本级服务器,之后把这个爬过的url放入已爬过的队列。
分析这些网页内容,找出网页里其他的URL链接,继续执行第二步,直到爬取结束
requests模块的简单使用
没有的先pip安装一下requests模块,然后开始使用,可以查看官方文档
常用属性
属性 | 功能 |
---|---|
response.text | 响应体 str类型 |
respones.content | 响应体 bytes类型 用于多媒体数据爬取 |
response.status_code | 响应状态码 |
response.request.headers | 响应对应的请求头 |
response.headers | 响应头 |
response.request._cookies | 响应对应请求的cookie |
response.cookies | 响应的cookie(经过了set-cookie动作) |
下面是简单的一个百度图片爬取
import requests
response = requests.get('https://imgsa.baidu.com/forum/pic/item/a12f211f95cad1c873238acd713e6709c83d5125.jpg')
# def get(url, params=None, **kwargs):
print(response.status_code)
print(response.headers)
if response.status_code == 200:
print('请求成功')
print('编码方式', response.encoding)
png_data = response.content
# print(req.content) # bytes类型,多媒体文件用这个
with open('a.jpg', 'wb+') as f:
f.write(png_data)
# print('text', response.text)
爬取贴吧图片流程
先确定要爬取的图片内容,右键检查图片,获取图片的网址
然后去检查页的network-doc,点击文件并查看response
利用正则去匹配对应的规则即可
爬取图片并保存到本地
爬虫最好添加请求头伪装成浏览器:
import requests
import re
from threading import Thread
headers = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36'
}
def get_url_list(url, n):
# 根据url和n来拼接路径,n是指要爬取n页的内容
# 返回拼接好的路径列表
ret_list = []
for i in range(0, n):
url_str = url + str(0+ i*50)
ret_list.append(url_str)
return ret_list
def main():
# 基础路径地址
base_url = 'https://tieba.baidu.com/f?kw=%E7%9A%AE%E5%8D%A1%E4%B8%98&ie=utf-8&pn='
url_list = get_url_list(base_url, 10)
exam1 = 'bpic="https://imgsa.baidu.com/forum/w%3D580%3B/sign=63eec57520dda3cc0be4b82831d23b01/35a85edf8db1cb13618c60f9d354564e93584b76.jpg" class="threadlist_pic j_m_pic "'
# 写出对应的正则匹配值
pat = 'bpic="(.*?)" class="threadlist_pic'
for url in url_list:
# 遍历贴吧页并获得图片地址
req = requests.get(url=url, headers=headers, allow_redirects=False)
# print(req.text)
pic_url_list = re.findall(pattern=pat, string=req.text)
print(pic_url_list)
# 爬取图片地址并保存
save_pic(pic_url_list)
def save_pic(url_list):
# 爬取图片然后写入到文件夹中
for url in url_list:
try:
r = requests.get(url=url)
# 截取
sss = url[-21:]
jpg_data = r.content
with open('pika/%s' % sss, 'wb+') as f:
f.write(jpg_data)
except Exception as e:
print(e)
print('保存图片失败')
if __name__ == '__main__':
# 创建多线程并启动
main_thread = Thread(target=main)
main_thread.start()