TensorRT 7.2.2 下载、安装、使用(ubuntu 18.04, cuda 10.2, cudnn 8.0.5)

这篇博客详细介绍了如何在Ubuntu 18.04上下载和安装TensorRT 7.2.2,包括从官网和交大云盘获取,以及与CUDA 10.2和CuDNN 8.0.5的配合。此外,文章还展示了如何在Pytorch环境中,进行图像分类模型的转换和推理,包括MNIST数据集的训练、转换和TensorRT引擎推断。
部署运行你感兴趣的模型镜像

一、下载安装

tensorrt 官网: https://developer.nvidia.com/tensorrt
官网安装教程:https://docs.nvidia.com/deeplearning/tensorrt/install-guide/index.html#installing

1.下载

(1) 官网下载

tensorrt 官网: https://developer.nvidia.com/tensorrt
点击“立即下载”,需要英伟达账号,可以选择任意平台适配你的cuda版本的TensorRT.

(2) 交大云盘下载

交大云盘下载速度可以达到5~10Mb/s。
目标前仅提供TensorRT-7.2.2的tar版本,适配Ubuntu18.04 x86_64架构、cuda为10.2,cudnn>=8.0.1。

wget -c -O TensorRT-7.2.2.3.Ubuntu-18.04.x84_64-gnu.cuda-10.2.cudnn8.0.tar.gz https://jbox.sjtu.edu.cn:10081/v2/delivery/data/c699ae6ce329441a81b23dbe96dd1edd/?token=

2.安装

提示:
安装tensorrt需要先安装好配套的cuda和cudnn,本文使用的cuda=10.2,cudnn=8.0.5,安装教程见:
https://blog.youkuaiyun.com/qq_26794857/article/details/111664965

(1)解压tar文件:

tar -zxvf TensorRT-7.2.2.3.Ubuntu-18.04.x84_64-gnu.cuda-10.2.cudnn8.0.tar.gz

(2)解压得到TensorRT-7.2.2.3文件夹,把其中的lib路径添加到环境变量(注意修改成你的路径):

export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/zzd/software/TensorRT-7.2.2.3/lib

(3)进入到解压路径下的python文件夹,使用pip安装
(注意:py2使用pip,py3使用pip3,如果是conda虚拟环境,要先激活该环境,再使用pip,并选择对应的whl文件):

cd TensorRT-7.2.2.3/python
pip3 install tensorrt-7.2.2.3-cp37-none-linux_x86_64.whl

(4)安装uff以支持tensorflow

cd TensorRT-7.2.2.3/uff
pip install uff-0.6.9-py2.py3-none-any.whl

(5)安装graphsurgeon以支持自定义结构

cd TensorRT-7.2.2.3/graphsurgeon
pip install graphsurgeon-0.4.5-py2.py3-none-any.whl

(6)安装onnx_graphsurgeon以支持onnx

cd TensorRT-7.2.2.3/onnx_grahsurgeon
pip install onnx_graphsurgeon-0.2.6-py2.py3-none-any.whl

二、使用

安装包解压目录TensorRT-7.2.2.3/samples文件夹下提供了运行示例,下面以python为例,注:仅演示pytorch相关代码,tensorflow及其他平台请查看官网教程。
官网教程:https://docs.nvidia.com/deeplearning/tensorrt/sample-support-guide/index.html#python_samples_section

例1:图像分类模型转换和inference

使用python把Caffe2(.Caffe格式),Tensorflow(.UFF格式)和ONNX(.pb格式)模型转换为tensorRT格式,样例是resnet50。

以onnx格式为例

cd samples/python/introductory_parser_samples
pip3 install -r requirements.txt  # 安装支持库
ls ../../../data/resnet50  # 查看配套的数据文件是否存在(待检测图像、不同平台的训练好的权重文件)
python onnx_resnet50.py -d ../../../data  # 运行,-d指定配套数据路径

如果输入类似如下内容则成功:

Correctly recognized <path>/data/resnet50/binoculars.jpeg as binoculars

例2:Pytorch平台Mnist数据集训练,转换和Inference

使用pytorch,在MNIST手写数字数据集上训练模型,并且用TensorRT engine推断。

cd samples/python/network_api_pytorch_mnist
pip3 install -r requirements.txt
python sample.py

如果输出如下内容则成功:

Test Case: 2
Prediction: 2

读源码:

model.py

两个类:Net和MnistModel

Class: Net是网络架构
conv1: 输入1通道,输出20通道,卷积核5 + 最大池化
conv2: 输入20通道,输出5-通道,卷积核5 + 最大池化
xiew展平 + 全连接层1 + relu激活 + 全连接层2 + log_softmax函数分类
Class: MnistModel是综合类
导入了Net类,并包含了dataloader、训练函数、测试函数
sample.py

主程序:导入MinistModel,训练,测试,获取权重,转换为engine,加载输入输出流进行推断。
很多内容调用了common.py

您可能感兴趣的与本文相关的镜像

PyTorch 2.9

PyTorch 2.9

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

**TensorRT 深度学习推理加速库** TensorRT 是 NVIDIA 推出的一款高效能的深度学习推理(Inference)优化库,专为在 GPU 上运行的高性能深度学习模型提供加速。TensorRT 可以对训练好的神经网络模型进行解析、优化和编译,生成针对特定硬件平台的低延迟、高吞吐量执行引擎,从而实现模型的快速部署。 **版本信息** 此压缩包中的 TensorRT 版本为 8.5.1.7,适用于 Windows 10 64位操作系统,并且已经集成了 CUDA 工具包 11.8cuDNN 8.6。CUDA 是 NVIDIA 提供的用于 GPU 加速计算的软件开发平台,而 cuDNN 是一组针对深度神经网络的 GPU 加速库,包含用于卷积、池化、激活等操作的高效算法。 **安装使用** 1. **安装**:你需要确保你的系统已安装了兼容版本的 NVIDIA GPU 驱动。然后,解压下载TensorRT 压缩包,按照官方文档提供的步骤进行安装。通常,这包括添加环境变量、注册动态链接库(DLLs)以及配置编译器路径。 2. **构建模型**:使用 TensorRT,你需要有一个预先训练好的神经网络模型,如 TensorFlow、PyTorch 或 ONNX 格式。TensorRT 支持多种框架导出的模型,可以方便地进行导入和优化。 3. **模型优化**:TensorRT 提供了一系列 API,允许开发者对模型进行配置,如选择不同的操作精度(如 INT8、FP16 或 FP32),进行量化和剪枝,以达到性能和精度的最佳平衡。 4. **构建执行图**:优化后的模型会被编译成一个执行图,这个图可以在运行时被 GPU 快速执行。TensorRT 提供了构建、编译和运行执行图的接口。 5. **部署与运行**:在应用中集成 TensorRT
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值