使用flask部署pytorch模型
服务端代码
server.py
# 导入包
import packages
# flask的app初始化
app=......
# 定义全局模型变量,便于一次加载
global model
# 模型加载函数
def load_model(path):
# 模型、权重、参数路径
path=......
# 加载模型
model=.....
# 设置模型推理模式
eval
gpu
# 数据预处理函数
def process_data(data):
# 调整数据格式
resize
tensor
gpu
# 返回处理后的数据
return data
# 模型功能函数
def fun(data):
# 设置数据字典,返回值格式设置
# 数据预处理
data = process_data()
# 模型
model
# 模型推理,获得结果
results = model(data)
# 将结果处理
# 将结果加入到数据字典
# 返回数据字典
# 服务函数
# 设置路由,请求方式
@app.route
def predict(data):
# 模型功能函数
fun(data)
# 返回请求结果
# 主运行
if main = __main__:
# 模型加载
load_model()
# 执行服务
app.run()
请求端代码
request.py
# 读取文件
# 请求路径
# 发送请求
# 获得结果
# 展示结果

7248

被折叠的 条评论
为什么被折叠?



