Python爬虫知识体系-----requests-----持续更新

数据科学、数据分析、人工智能必备知识汇总-----Python爬虫-----持续更新:https://blog.youkuaiyun.com/grd_java/article/details/140574349

一、安装和基本使用

1. 安装

  1. 和解析库urllib几乎一摸一样,但是有些业务场景,用request更加方便

最好对比utllib学习:https://blog.youkuaiyun.com/grd_java/article/details/140589367

  1. 官方文档:https://requests.readthedocs.io/projects/cn/zh-cn/latest/

企业中用的最多的就是requests,底层实现就是urllib,在python2和python3中通用,方法完全一样;简单易用

安装requests
  1. 执行命令pip install requests即可安装
    在这里插入图片描述
  2. 代码中导包不报错表示安装成功
    在这里插入图片描述

2. 基本使用

基本使用
'''导包(start)'''
import requests
'''导包(end)'''
url = 'http://www.baidu.com'
# 通过get方式请求url
response = requests.get(url)
# 设置编码格式
response.encoding = 'utf-8'
# response对象的类型为Response类型,和urllib的HttpResopnse对象是不一样的
print(type(response))
# 以字符串形式返回网页源码
print(response.text)
# 获取响应状态码
print(response.status_code)
# 获取请求的url
print(response.url)
# 获取响应头
print(response.headers)
# 获取响应的字节类型
print(response.content)

3. response常用属性

response.text # 响应体 str类型
response.encoding #从HTTP header中猜测的响应内容的编码方式
respones.content #响应体bytes类型
response.status_code #响应状态码
response.request.headers #响应对应的请求头
response.headers #响应头
response.cookies #响应的cookie(经过了set-cookie动作)
response.url #获取访问的url
response.json() #获取ison数据 得到内容为字典(如果接口响应体的格式是ison格式时)
response.ok
	# 如果status code小于200,response.ok返回True。
	# 如果status code大于200,response.ok返回False.

response.text和response.content的区别


  1. response.text
  1. 类型:str
  2. 解码类型: requests模块自动根据HTTP 头部对响应的编码作出有根据的推测,推测的文本编码
  3. 如何修改编码方式:response.encoding=“gbk/UTF-8”
  1. response.content
  1. 类型:bytes
  2. 解码类型:没有指定
  3. 如何修改编码方式:response.content.deocde(“utf8")

获取网页源码的通用方式:


  1. response.content.decode()
  2. response.content.decode(“UTF-8”)
  3. response.text

以上三种方法从前往后尝试,能够100%的解决所有网页解码的问题。所以,更推荐使用 response.content.deocde()的方式获取响应的html页面

二、get请求

同样是百度,例如百度北京看搜索结果。requests库作为独属于python的,是不需要像urllib一样对参数编码的


在这里插入图片描述

'''导包(start)'''
import requests
'''导包(end)'''

url = 'http://www.baidu.com/s?' # 路径中的?可加可不加
headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:128.0) Gecko/20100101 Firefox/128.0"}
data = {
    'wd':'北京'
}
# def get(url, params=None, **kwargs):
# url       请求资源路径
# params    参数
# kwargs    字典
response = requests.get(url=url, params=data, headers=headers)
response.encoding = 'utf-8'
content = response.text
print(content)
# 也可以一行搞定哦
print(response.content.decode('utf-8'))

可见对比urllib有以下几点不同


  1. 参数使用params传递
  2. 参数无需urlencode编码
  3. 不需要请求对象的定制
  4. 请求资源路径(url)中的?可以加也可以不加

把网络上的图片(例如www.baidu.com的图片,随便找一张)保存到本地
在这里插入图片描述

'''导包(start)'''
import requests
'''导包(end)'''

url = 'https://inews.gtimg.com/om_bt/O6SG7dHjdG0kWNyWz6WPo2_3v6A6eAC9ThTazwlKPO1qMAA/641'
headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:128.0) Gecko/20100101 Firefox/128.0"}
# 响应体为二进制文件
response = requests.get(url = url,  headers=headers)
# 二进制写入的方式打开文件
with open('test.png','wb') as fp:
    # 写入response.content bytes 二进制类型
    fp.write(response.content)

三、post请求

我们使用讲解urllib中的百度翻译的案例,看看实现同样的效果和urllib有何区别
在这里插入图片描述

  1. post请求,不需要编解码
  2. 请求参数是经典的data
  3. 不需要请求对象的定制
'''导包(start)'''
import requests
'''导包(end)'''

url = 'https://fanyi.baidu.com/sug'
headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:128.0) Gecko/20100101 Firefox/128.0"}
data = {
    "kw":"spider"
}
# def post(url, data=None, json=None, **kwargs):
# url       请求资源路径
# data      参数对象
# json      json对象
# kwargs    字典
# 我们以传输data对象为例,传输json同理,将data换成json即可
response = requests.post(url=url, data=data, headers=headers)
content = response.text
# 因为content返回的不是utf-8编码格式,我们看起来比较费劲
# 通过json库将其转为utf-8
import json
obj = json.loads(content)
print(obj)

四、代理

依然和urllib完全一样的操作
在这里插入图片描述

'''导包(start)'''
import requests
'''导包(end)'''

url = 'http://www.baidu.com/s?'
headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:128.0) Gecko/20100101 Firefox/128.0"}
data = {
    "wd":"ip"
}
# 1. 获取代理handler对象,并指定代理ip字典proxies
proxies = {
    'http': '218.87.205.38:20433',
}
'''
# 多个ip地址
proxy = [
	{'http':'http://***.***.***.***:8080'},
	{'http':'http://***.***.***.***:8080'}
]
import random
proxy = random.choice(proxy)
'''
response = requests.get(url = url, params=data, headers=headers,proxies=proxies)
content = response.text
with open('daili.html','w',encoding='utf-8') as fp:
    fp.write(content)

1. 什么是代理

在这里插入图片描述

  1. 让服务器以为不是同一个客户端在请求
  2. 防止我们真实地址被泄露,防止被追究(国家机密网站用了代理也没用,分分钟人肉你。包括淘宝支付宝等,只要你在国内,干了违法事情,用什么都白费)
正向代理和反向代理的区别

  1. 没有代理之前,直接使用浏览器向服务器请求数据。
    在这里插入图片描述

  1. 反向代理是服务器端找代理,而不是我们访问者找代理。我们只能找到nginx(不是非nginx不可,只是他用的比较多,提供了负载均衡等功能),然后由nginx转发到对应服务器。浏览器不知道服务器的真实地址
    在这里插入图片描述

  1. 正向代理:我们通过代理ip访问服务器。对于浏览器,是知道服务器的真实地址的,例如VPN
    在这里插入图片描述
  1. 正向代理:是客户端与正向代理客户端在同一局域网,客户端发出请求,正向代理 替代客户端向服务器发出请求。服务器不知道谁是真正的客户端,正向代理隐藏了真实的请求客户端。
  2. 反向代理:服务器与反向代理在同一个局域网,客服端发出请求,反向代理接收请求,反向代理服务器会把我们的请求分转发到真实提供服务的各台服务器,Nginx就是性能非常好的反向代理服务器,用来做负载均衡
根据代理ip的匿名程度,代理ip可以分为
  1. 透明代理(Transparent Proxy)
  1. 客户端根本不需要知道有代理服务器的存在,但是它传送的仍然是真实的IP
  2. 对方服务器是可以知道你使用了代理的,并且他们也知道你的真实IP。你要想隐藏的话,不要用这个。
  3. 他们将你的真实IP发送给了对方服务器,所以无法达到保护真实信息的目的

  1. 匿名代理(Anonymous Proxy):
  1. 隐藏了您的真实IP,但是访问对象可以检测是使用代理服务器访问他们的
  2. 会改变我们的请求信息,服务器端有可能会认为我们使用了代理。不过使用此种代理时,虽然被访问的网站不能知道你的ip地址,但仍然可以知道你在使用代理,当然某些能够侦测ip的网页也是可以查到你的ip。
  1. 高匿代理(Elite proxy或High Anonymity Proxy)
  1. 不改变客户机的请求,这样在服务器看来就像有个真正的客户浏览器在访问它,这时客户的真实IP是隐藏的,完全用代理服务器的信息替代了您的所有信息
  2. 就象您就是完全使用那台代理服务器直接访问对象,同时服务器端不会认为我们使用了代理。IPDIEA覆盖全球240+国家地区ip高匿名代理不必担心被追踪
代理IP使用的注意点
  1. 反反爬
  1. 使用代理ip是非常必要的一种 反反爬 的方式
  2. 但是即使使用了代理ip,对方服务器任然会有很多的方式来检测我们是否是一个爬虫
  1. 一段时间内,检测IP访问的频率,访问太频繁会屏蔽
  2. 检查Cookie,User-Agent,Referer等header参数,若没有则屏蔽
  3. 服务方购买所有代理提供商,加入到反爬虫数据库里,若检测是代理则屏蔽所以更好的方式在使用代理ip的时候使用随机的方式进行选择使用,不要每次都用一个代理ip
  1. 代理ip池的更新

购买的代理ip很多时候大部分(超过60%)可能都没办法使用,这个时候就需要通过程序去检测哪些可用,把不能用的删除掉。

  1. 代理服务器平台的使用:参考urllib文章中给出的
  1. 免费的也有,但大多不能用,下面给出一些常用的免费平台
  2. http://www.66ip.cn
  3. https://www.zdaye.com
  4. https://www.kuaidaili.com/free

2. 测试ip

要记住http://httpbin.org/这个网站,可以进行很多测试


在这里插入图片描述


而我们爬虫测试ip时,直接访问http://httpbin.org/ip即可
在这里插入图片描述

'''导包(start)'''
import requests
'''导包(end)'''

url = 'http://httpbin.org/ip'
headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:128.0) Gecko/20100101 Firefox/128.0"}
proxy = {'http':'185.101.16.52:80'}
# 响应体为二进制文件
response = requests.get(url = url,  headers=headers,proxies=proxy)

print(response.text)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

ydenergy_殷志鹏

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值