pytorch部署torchscript篇

本文介绍了在Windows上使用Visual Studio、OpenCV和libtorch进行PyTorch模型(以ResNet34为例)的C++部署,包括环境配置、.pt文件生成、VS项目创建与配置、常见错误处理。通过配置编译环境、设置项目属性,最终实现模型推理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

引言

本文旨在介绍如何在Windows平台使用pytorch的c++ api部署pytorch的CNN模型,本文的部署的模型只有推理功能,这是由于torch::jit不支持部分层或者操作的反向传播。当然即使只是推理也足够许多项目运行了,部署使用的工具有visual studioopencvlibtorch

环境

本文环境如下:
win10平台
cuda10.2+cudnn7.6.5
双显卡Gtx 1080Ti
visual studio 2017 community version
opencv 4.5.0
libtorch 1.7
事实上,除了libtorch是版本有强制要求不低于pytorch版本外(主要是可能存在的api问题,否则也不必)和visual studio的版本要求外,其他如opencv并无版本要求,甚至如果只部署cpu的话,显卡都不是必须。

visual studio

visual studio版本最好在2015及以上,本文用2017版本。下载链接在链接1,具体安装过程可以参考链接2。打开链接1下载社区版本即可,安装时对于c++程序设计只需安装对应部分,勾选如下:
vs安装

visual studio的安装并无太多需要赘述,按照教程操作就好。

opencv

截止成文时,opencv版本已到4.5.0。去官网下载你想要的版本即可,当然限定平台为Windows平台。opencv的版本如若读者没有特别需要均无影响,本文也试过不同版本,不影响部署。opencv安装也容易,虽然是exe文件,但是实际就是个压缩包,解压到你想要的目录最好。值得注意的是,好的编程习惯很重要,所有程序涉及路径以英文路径为佳,避免出错。

libtorch

libtorch使用所需要的环境和训练最好保持一致,其中cuda,显卡驱动以及libtorch版本配置一般不应低于训练环境。尤其是libtorch版本要求更为严格,否则部分pytorch的api无法在libtorch中使用。

本文中以libtorch1.7为例介绍,读者最新版1.7.1使用,亲测可用。下载时以release版本为佳,避免一些不必要的错误。
在这里插入图片描述

下载后同样解压到读者想要路径,可以更改好解压名称如下以方便版本管理。
dependency

这样下来就已经准备好部署所需要的依赖项。

例子

生成.pt文件

接下来以ResNet34分类模型为例尝试部署分类模型。准备一张图片用以判断是否部署成功,本文用例图如下:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-b87tPBB6-1617028970894)(https://raw.githubusercontent.com/AllentDan/ImageBase/main/libtorch_deploy/flower.jpg)]
接下来先和官网类似生成torchscript模型,亦即本文中的pt文件。本文使用代码如下:

from torchvision.models import resnet34
import torch.nn.functional as F
import torch.nn as nn
import torch
import cv2

#读取一张图片,并转换成[1,3,224,224]的float张量并归一化
image = cv2.imread("flower.jpg")
image = cv2.resize(image,(224,224))
input_tensor = torch.tensor
<think>嗯,用户想了解如何使用TorchScript进行PyTorch模型的部署。首先,我需要回忆一下TorchScript的基本概念用途。根据引用[4]的内容,TorchScriptPython的一个子集,主要用于将PyTorch代码转换成C++代码,提高部署效率。那用户可能关心的是具体转换步骤注意事项。 接下来,用户可能需要知道两种主要的转换方法:torch.jit.tracetorch.jit.script。根据引用[3]引用[5],trace适用于没有控制流的模型,而script可以处理更复杂的逻辑。需要详细说明这两种方法的区别使用场景。 然后,用户可能会遇到实际应用中的问题,比如如何处理动态控制流。这时候需要引用例子,比如引用[5]中的代码示例,展示如何用@torch.jit.script_method装饰器来定义forward方法。同时,要提醒用户注意输入输出的类型一致性,避免转换失败。 另外,模型保存加载也是关键步骤。需要提到使用save方法保存为.pt文件,以及如何在C++中加载,如引用[4]提到的ScriptModule格式。这部分可能需要分步骤说明,确保用户能按照流程操作。 用户可能还会关心性能优化实际应用中的好处。引用[1]提到TorchScript可以保护模型知识产权,这点需要强调,同时引用[2]推荐的相关资料可能对用户深入学习有帮助。 最后,生成相关问题时要覆盖常见疑问,比如tracescript的区别、动态控制流的处理、性能优化方法以及实际应用场景。这样用户可以根据自己的需求进一步探索。</think>### 如何使用 TorchScript 进行 PyTorch 模型部署 #### 1. TorchScript 的核心作用 - **跨平台部署**:将动态图模型转换为静态图(ScriptModule),支持脱离 Python 环境运行(如 C++/Android)[^4]。 - **性能优化**:通过 JIT 编译提升推理效率,减少 Python 解释器开销[^1]。 - **模型保护**:固化模型结构参数,避免源码泄露[^1]。 #### 2. 模型转换方法 ##### 方法一:`torch.jit.trace`(适用于无控制流的模型) ```python import torch # 定义模型 class SimpleModel(torch.nn.Module): def forward(self, x): return x * 2 model = SimpleModel() # 输入示例 example_input = torch.rand(1, 3) # 跟踪执行流程 traced_model = torch.jit.trace(model, example_input) traced_model.save("model_traced.pt") ``` *特点*:仅记录特定输入下的计算路径,无法处理动态控制流[^3]。 ##### 方法二:`torch.jit.script`(支持动态逻辑) ```python class DynamicModel(torch.nn.Module): def forward(self, x): if x.sum() > 0: return x * 3 else: return x * (-1) scripted_model = torch.jit.script(DynamicModel()) scripted_model.save("model_scripted.pt") ``` *特点*:直接解析 Python 代码,支持条件分支/循环等动态结构[^3]。 #### 3. 混合使用技巧 - 对包含复杂逻辑的子模块使用`@torch.jit.script`装饰器 - 对数据流明确的模块使用`torch.jit.trace` ```python class HybridModel(torch.nn.Module): def __init__(self): super().__init__() self.linear = torch.nn.Linear(10, 5) @torch.jit.script_method def process(self, x): # 包含复杂逻辑 return torch.relu(x) def forward(self, x): x = self.linear(x) return self.process(x) model = torch.jit.script(HybridModel()) ``` #### 4. 部署验证要点 1. **输入类型约束**:确保部署时输入张量类型/维度与转换时一致 2. **跨设备兼容性**:转换前使用`model.to("cpu")`避免 GPU 依赖 3. **版本一致性**:保证 PyTorch 版本在转换/部署环境中的一致性 #### 5. C++ 加载示例 ```cpp #include <torch/script.h> int main() { torch::jit::script::Module module; module = torch::jit::load("model.pt"); std::vector<torch::jit::IValue> inputs; inputs.push_back(torch::ones({1, 3})); at::Tensor output = module.forward(inputs).toTensor(); } ```
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值