pytorch 模型预测 被c++做客户端调用

本文介绍了一种C++应用调用远程服务器上PyTorch模型进行预测的方法,通过Flask框架部署模型服务,利用pyinstaller将Python请求脚本打包成exe,实现跨环境调用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

效果是 c++传过来一张图片,返回一张模型预测好的结果图

这个工程目的是实现c++可以调用远程服务器模型进行预测的功能,pytorch远程调用

需求是,本地c++需要调用模型预测结果,模型是pytorch写的,放在服务端,所以需要通过网络进行传输

最终实现的框架是,使用python 的falsk 将模型一直加载进服务器GPU,对外发布为服务,

本地c++ 调用py脚本,然后发送数据,接收数据,(这里调用py脚本生成的exe,并不是直接调py,这样做的好处是可以脱离py环境运行)

使用步骤

1.开启服务器端服务 CUDA_VISIBLE_DEVICES=3 python test-service.py

2.pyinstaller -D simple_request.py 生成exe

3.自己写c++代码调用exe,详细介绍如下

本文件夹包含了两部分,客户端代码,和服务端代码

下面分别介绍

客户端代码

包含两部分

c++代码  --传图片及参数使用举例
python部分 --是c++代码后台要调用的
	注意:这里并不是直接调用python代码,而是调用python转成的exe文件,目的是为了脱离python环境运行
		如果有修改python代码的需要,请重新生成exe,才能生效
		步骤如下
			1.在python环境下安装 pip install pyinstaller (若已安装,请忽略)
			2.进入py文件目录,运行 pyinstaller -D simple_request.py  生成build 和 dist文件夹
			  dist文件夹里面有调用的exe

服务端代码

在BASNet-master 里面
	开启预测服务步骤
	CUDA_VISIBLE_DEVICES=3 python	test-service.py
	解释 CUDA_VISIBLE_DEVICES=3 指定GPU,防止多人使用冲突,
	开启后,默认占用的端口号是5000,可在test-service.py 修改
	若要别的电脑访问,需要服务器开启5000端口

若有不懂或者调试不出来,可私信我
github地址
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值