在 Python 众多的 HTTP 客户端中,最有名的莫过于 requests 、 aiohttp 和 httpx 。
在不借助其他第三方库的情况下, requests 只能发送同步请求; aiohttp 只能发送异步请求; httpx 既能发送同步请求,又能发送异步请求。
那么怎么选择呢
- 只发同步请求用
requests,但可配合多线程变异步。 - 只发异步请求用
aiohttp,但可以配合await变同步。 httpx可以发同步请求也可以异步,但是请求速度同步略差于requests,异步略差于aiohttp
Asyncio 的强大。但是,任何一种方案都不是完美的,都存在一定的局限性,Asyncio 同样如此。
实际使用中,想用好 Asyncio,特别是发挥其强大的功能,很多情况下必须得有相应的 Python 库支持。
比如
requests 库并不兼容 Asyncio,而 aiohttp 库兼容。
requests
这里先说 requests
安装依赖
pip install requests
响应
响应的类型
#获取接口返回的字符串数据
r.text
#获取接口返回的json数据,即直接将json格式的数据转换为json对象
r.json()
#获取接口返回的二进制数据,假设二进制数据如果为图片可以继续转换成图片
r.content
#获取原始套接字,使用r.raw请在 requests 请求中加上参数 stream=True
r.raw
获取请求响应的其他信息
#获取状态码
r.status_code
#获取请求的url
r.url
#获取指定cookies信息
r.cookies['token']
#获取访问服务器返回给我们的响应头部信息
r.headers
#获取指定访问服务器返回给我们的响应头部信息
r.headers['Content-Type']
#获取发送到服务器的请求的头部的信息
r.request.headers
请求
GET请求
get请求:
res = requests.get(url,data=data,cookies=cookie,headers=header,verify=False,files=file)
data可传可不传,data是字典格式。
如果url是https的话,加上verify=False。如果url是http的话,可不加。
示例1
import requests
if __name__ == '__main__':
r = requests.get("https://www.psvmc.cn")
print(r.text)
示例2
import requests
if __name__ == '__main__':
data = {'username': 'admin', 'passwd': '123456'}
r = requests.get("https://www.psvmc.cn/login.json", params=data)
print(r.status_code)
print(r.json()["obj"])
POST请求
url_post = "https://www.psvmc.cn/login.json"
#不包含任何参数的请求
r = requests.post(url_post)
#不包含任何参数的请求,设置超时10s,timeout不设置则默认60s
r = requests.post(url_post,timeout=10)
#携带参数的请求,dict_param为参数字典,默认data=dict_param,使用data=则表示post的是form请求
#即 application/x-www-form-urlencoded 。
r = requests.post(url_post, data=dict_param)
#携带参数的请求,dict_param为参数字典,使用json=则表示post的是json请求
r = requests.post(url_post, json=dict_param)
#携带参数的请求,body传字符串,这里是JSON字符串。
r = requests.post(url_post, data=json.dumps(dict_param))
#携带参数的请求,dict_param为参数字典,设置超时10s,并携带headers属性
r = requests.post(
url_post,
data=dict_param,
timeout=10,
headers={
'User-Agent': 'Mozilla/5.0 (iPhone; CPU iPhone OS 13_2_3 like Mac OS X)'
})
#post请求上传文件
url = 'http://apihost/upload/post'
files = {'file': open('report.xls', 'rb')}
r = requests.post(url, files=files)
其他类型请求
r = requests.put(url, data =dict_param)
r = requests.delete(url)
r = requests.head(url)
r = requests.options(url)
代理
跨域的时候可以考虑代理访问,不管是post请求还是get请求,只需要添加proxies即可。
客户端开发时不用考虑跨域问题,没有必要设置代理访问。
proxies = {
"http": "http://10.10.1.10:3128",
"https": "http://10.10.1.10:1080",
}
requests.get(url_get, proxies=proxies)
查看代理是否有效
和telnet作用一样
import telnetlib
if __name__ == '__main__':
try:
telnetlib.Telnet('110.242.68.4', port='80', timeout=3)
except:
print('ip无效!')
else:
print('ip有效!')
异步请求
aiohttp 的代码与 httpx 异步模式的代码重合度90%,只不过把 AsyncClient 换成了 ClientSession ,
另外,在使用 httpx 时,当你 await client.post 时就已经发送了请求。但是当使用 aiohttp 时,只有在 awiat resp.json() 时才会真正发送请求。
aiohttp
import aiohttp
import asyncio
async def main():
async with aiohttp.ClientSession() as client:
resp = await client.post('https://www.psvmc.cn/login.json',
json={'ts': '2020-01-20 13:14:15'})
result = await resp.json()
print(result)
asyncio.run(main())
httpx
import httpx
import asyncio
async def main():
async with httpx.AsyncClient() as client:
resp = await client.post('https://www.psvmc.cn/login.json',
json={'ts': '2020-01-20 13:14:15'})
result = resp.json()
print(result)
asyncio.run(main())
JSON
字符串转对象
import json
# 一些 JSON:
x = '{ "name":"Bill", "age":63, "city":"Seatle"}'
# 解析 x:
y = json.loads(x)
# 结果是 Python 字典:
print(y["age"])
对象转字符串
import json
# Python 对象(字典):
x = {
"name": "Bill",
"age": 63,
"city": "Seatle"
}
# 转换为 JSON:
y = json.dumps(x)
# 结果是 JSON 字符串:
print(y)
当 Python 转换为 JSON 时,Python 对象会被转换为 JSON(JavaScript)等效项:
| Python | JSON |
|---|---|
| dict | Object |
| list | Array |
| tuple | Array |
| str | String |
| int | Number |
| float | Number |
| True | true |
| False | false |
| None | null |
异步IO(协程)和请求
pip install aiohttp
简单示例
import asyncio
async def test():
await asyncio.sleep(3)
return "123"
async def main():
result = await test()
print(result)
if __name__ == '__main__':
asyncio.run(main())
异步请求
import asyncio
import aiohttp
import time
async def download_one(url):
async with aiohttp.ClientSession() as session:
async with session.get(url) as resp:
print('Read {} from {}'.format(resp.content_length, url))
async def download_all(sites):
tasks = [asyncio.ensure_future(download_one(site)) for site in sites]
await asyncio.gather(*tasks)
def main():
sites = [
'https://www.psvmc.cn/index.html',
'https://www.psvmc.cn/login.json',
'https://www.psvmc.cn/userlist.json'
]
start_time = time.perf_counter()
loop = asyncio.get_event_loop()
try:
loop.run_until_complete(download_all(sites))
finally:
if loop.is_running():
loop.close()
end_time = time.perf_counter()
print('Download {} sites in {} seconds'.format(
len(sites), end_time - start_time))
if __name__ == '__main__':
main()
多线程
from concurrent.futures import ThreadPoolExecutor
import threading
# 定义一个准备作为线程任务的函数
def action(num):
print(threading.current_thread().name)
return num+100
# 创建一个包含4条线程的线程池
with ThreadPoolExecutor(max_workers=3) as pool:
future1 = pool.submit(action, 1000)
def get_result(future):
print(f"单个任务返回:{future.result()}")
# 为future1添加线程完成的回调函数
future1.add_done_callback(get_result)
print('------------------------------')
# 使用线程执行map计算
results = pool.map(action, (50, 100, 150))
for r in results:
print(f"多个任务返回:{r}")
异步 IO/多进程/多线程对比
异步 IO(asyncio)、多进程(multiprocessing)、多线程(multithreading)
IO 密集型应用CPU等待IO时间远大于CPU 自身运行时间,太浪费;
常见的 IO 密集型业务包括:浏览器交互、磁盘请求、网络爬虫、数据库请求等
Python 世界对于 IO 密集型场景的并发提升有 3 种方法:多进程、多线程、异步 IO(asyncio);
理论上讲asyncio是性能最高的,原因如下:
- 进程、线程会有CPU上下文切换
- 进程、线程需要内核态和用户态的交互,性能开销大;而协程对内核透明的,只在用户态运行
- 进程、线程并不可以无限创建,最佳实践一般是 CPU*2;而协程并发能力强,并发上限理论上取决于操作系统IO多路复用(Linux下是 epoll)可注册的文件描述符的极限
那asyncio的实际表现是否如理论上那么强,到底强多少呢?我构建了如下测试场景:
访问500台 DB,并sleep 100ms模拟业务查询
- 方法 1;顺序串行一台台执行
- 方法 2:多进程
- 方法 3:多线程
- 方法 4:asyncio
- 方法 5:asyncio+uvloop
最后的 asyncio+uvloop 和官方asyncio 最大不同是用 Cython+libuv 重新实现了asyncio 的事件循环(event loop)部分,
官方测试性能是 node.js的 2 倍,持平 golang。
以下测试代码需要 Pyhton3.7+:
顺序串行一台台执行
import records
user = "root"
pwd = "123456"
port = 3306
hosts = [] # 500台 db列表
def query(host):
conn = records.Database(
f'mysql+pymysql://{user}:{pwd}@{host}:{port}/mysql?charset=utf8mb4')
rows = conn.query('select sleep(0.1);')
print(rows[0])
def main():
for h in hosts:
query(h)
# main entrance
if __name__ == '__main__':
main()
多进程
from concurrent import futures
import records
user = "root"
pwd = "123456"
port = 3306
hosts = [] # 500台 db列表
def query(host):
conn = records.Database(
f'mysql+pymysql://{user}:{pwd}@{host}:{port}/mysql?charset=utf8mb4')
rows = conn.query('select sleep(0.1);')
print(rows[0])
def main():
with futures.ProcessPoolExecutor() as executor:
for future in executor.map(query,hosts):
pass
# main entrance
if __name__ == '__main__':
main()
多线程
from concurrent import futures
import records
user = "root"
pwd = "123456"
port = 3306
hosts = [] # 500台 db列表
def query(host):
conn = records.Database(
f'mysql+pymysql://{user}:{pwd}@{host}:{port}/mysql?charset=utf8mb4')
rows = conn.query('select sleep(0.1);')
print(rows[0])
def main():
with .ThreadPoolExecutor() as executor:
for future in executor.map(query,hosts):
pass
# main entrance
if __name__ == '__main__':
main()
asyncio
import asyncio
from databases import Database
user = "root"
pwd = "123456"
port = 3306
hosts = [] # 500台 db列表
async def query(host):
DATABASE_URL = f'mysql+pymysql://{user}:{pwd}@{host}:{port}/mysql?charset=utf8mb4'
async with Database(DATABASE_URL) as database:
query = 'select sleep(0.1);'
rows = await database.fetch_all(query=query)
print(rows[0])
async def main():
tasks = [asyncio.create_task(query(host)) for host in hosts]
await asyncio.gather(*tasks)
# main entrance
if __name__ == '__main__':
asyncio.run(main())
asyncio+uvloop
import asyncio
import uvloop
from databases import Database
user = "root"
pwd = "123456"
port = 3306
hosts = [] # 500台 db列表
async def query(host):
DATABASE_URL = f'mysql+pymysql://{user}:{pwd}@{host}:{port}/mysql?charset=utf8mb4'
async with Database(DATABASE_URL) as database:
query = 'select sleep(0.1);'
rows = await database.fetch_all(query=query)
print(rows[0])
async def main():
tasks = [asyncio.create_task(query(host)) for host in hosts]
await asyncio.gather(*tasks)
# main entrance
if __name__ == '__main__':
uvloop.install()
asyncio.run(main())
运行时间对比
| 方式 | 运行时间 |
|---|---|
| 串行 | 1m7.745s |
| 多进程 | 2.932s |
| 多线程 | 4.813s |
| asyncio | 1.068s |
| asyncio+uvloop | 0.750s |
可以看出: 无论多进程、多进程还是asyncio都能大幅提升IO 密集型场景下的并发,但asyncio+uvloop性能最高,运行时间只有原始串行运行时间的 1/90,相差快 2 个数量级了!
该部分摘自: Python 异步 IO(asyncio)、多进程(multiprocessing)、多线程(multithreading)性能对比
本文介绍了Python中的HTTP客户端,包括requests、aiohttp和httpx的使用,以及同步、异步请求、JSON转换和多线程。探讨了异步IO在IO密集型应用中的优势,通过对比多进程、多线程和异步IO(asyncio),展示了asyncio+uvloop在性能上的优越性。
437

被折叠的 条评论
为什么被折叠?



