【深度学习】【部署】Flask快速部署Pytorch模型【入门】

本文介绍了如何使用Flask轻量级框架来部署Pytorch的人脸检测模型Retinaface,通过创建简单的Web服务接口,实现模型的动态加载和预测功能。相较于直接打包exe,此方法能更高效地利用资源。文章还提供了win10环境下将服务打包成exe的步骤,并附带了一个测试脚本以验证服务的正确性。

【深度学习】【部署】Flask快速部署Pytorch模型【入门】

提示:博主取舍了很多大佬的博文并亲测有效,分享笔记邀大家共同学习讨论


前言

Django和Flask都是python的服务框架,Flask相较于Django的优势是更加轻量级,因此尝试用Flask构建API服务,Flask快速部署深度学习模型再打包exe与深度学习模型直接打包exe相比,前者模型只需要加载一次权重就可以一直使用,而后者每一次预测都需要重新加载一次模型权重,严重浪费了时间和资源。
打包exe参考
环境安装参考

# 安装flask
pip install flask 
# 安装pytorch环境
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117

搭建简单的Web服务

将以下代码段保存在名为app.py的文件中,并运行代码。

from flask import Flask
app = Flask(__name__)

@app.route('/')
def hello():
    return 'Hello World!'

if __name__ == "__main__":
	app.run()

在web浏览器中访问http://127.0.0.1:5000/时,查看到Hello World的文本!


搭建深度学习的Web服务

博主以人脸检测之Retinaface算法为例讲解代码:【retinaface-pytorch代码】。有兴趣的朋友可以看看完整的代码,这里博主只保留了与预测相关的代码,并做了部分修改。
app.py中与Web服务相关的部分,博主设置了俩个路由路径:

  1. 一个是/http://127.0.0.1:5000/setmodel–用于修改模型的主干网络及其权重,因为一个检测模型可能有多个backbone,本例是有resnet50和alpha不同的多个mobilenetV1作为backbone。
  2. 另一个是/http://127.0.0.1:5000/predict–用于检测,这里博主保留了源码中图片单一和批量俩种预测方式。
# 初始化模型 默认mobilenetX1.00
Model = retinaface("mobilenetX1.00")
from flask import Flask, request
app = Flask(__name__)
# /setmodel用于修改模型
@app.route('/setmodel', methods=['POST'])
def initialization():
    if request.method == 'POST':
        model_mold = request.form
        Model.setModel(model_mold["model_mold"])
    return "initialization " + model_mold["model_mold"] + " finish"

# /predict用于预测
@app.route('/predict', methods=['POST'])
def predict
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值