-
requests.request():提交一个request请求,作为其他请求的基础
-
requests.get(): 获取HTML网页代码的方法
-
requests.head():获取HTML网页头部的方法
-
requests.post():向HTML网页提交POST请求的方法
-
requests.put():向HTML网页提交PUT请求方法
-
requests.patch():向HTML网页提交局部修改请求
-
requests.delete():向HTML网页提交修改请求
r = requests.request(‘OPTIONS’, url, **Kwargs)
r = requests.request('GET', url, **Kwargs) r = requests.request('HEAD', url, **Kwargs) r = requests.request('POST', url, **Kwargs) r = requests.request('PUT', url, **Kwargs) r = requests.request('PATCH', url, **Kwargs) r = requests.request('DELETE', url, **Kwargs) # 或者直接使用对应的方法,如 r = requests.get(url, **Kwargs)
-
**Kwargs:访问控制参数(可选项)
-
headers:用于修改请求头,用于模拟浏览器访问网页
hd = {'user-agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36"}
-
cookies:字典或者cookieJar,用于作为请求的cookies
-
proxis:字典类型,设定访问代理服务器,可以增加登录认证,如增加登录用户名和密码。主要用于隐藏爬取网页的源网站,防止爬虫的逆追踪。
pxs = {'http':'http://user:pass@0.0.0.1:8090' , 'https':'https:0.0.0.1:8090'} r = requests.request('GET','http://www.baidu.com',proxies = pxs)
-
timeout:设置访问超时上限时间,单位为s,若是超时则会返回超时异常
-
params:字典或字节序列,作为参数增加到URL中
kv = {'key1': 'value1', 'key2': 'value2'} r = requests.get("https://www.baidu.com", params=kv) print(r.url) # output: https://www.baidu.com/?key1=value1&key2=value2
-
json: 将JSON数据作为request的内容提交,放在服务器的json里面
kv = {'key1': 'value1', 'key2': 'value2'} r = requests.post("https://www.baidu.com", json=kv)
-
data:字典、字节序列或文件对象,作为request的内容,但是并不放到URL链接里,放在URL链接对应位置作为数据存储;当然也可以把一个字符串赋值给data,该字符串放在URL所对应的位置。
kv = {'key1': 'value1', 'key2': 'value2'} r = requests.post("https://www.baidu.com", data=kv) kv = "string" r = requests.post("https://www.baidu.com", data=kv)
-
auth:元组,可支持http认证功能
-
allow_redirects:True/False,默认为True,重定向开关
-
steam:True/False,默认为True,获取内容后立即下载
-
verify:True/False,默认为True,认账SSL证书开关
-
cert:本地SSL证书路径