WIN10安装配置TensorRT详解

本文详细介绍如何在Windows环境下安装配置CUDA、cuDNN及TensorRT,并提供了验证安装是否成功的步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

工欲善其事,必先利其器

查看本机适配的CUDA 版本

要想安装TensorRT必须要先安装CUDA和cudnn,那么首先需要去查看自己电脑的英伟达驱动程序程序,位置如下:

NVIDIA控制面板->帮助->组件,如下图所示本机适配CUDA版本为11.6

在这里插入图片描述

下载CUDA安装包

进入CUDA 安装包的下载地址如下:

CUDA Toolkit 11.6 Downloads | NVIDIA Developer

按照机器适配版本,下载好安装包;如果没有帐户,需要先进行注册
在这里插入图片描述

下载cuDNN安装包

进入英伟达官方网站,选择和自己适配的cuDNN版本,地址如下:

cuDNN Download | NVIDIA Developer

如果没有帐户,需要先进行注册
在这里插入图片描述

下载TensorRT安装包

进入英伟达官网,选择和自己机器适配的TensorRT,地址如下:

NVIDIA TensorRT 8.x Download | NVIDIA Developer
在这里插入图片描述

流程化安装软件包
(1)安装CUDA

双击exe文件解压

在这里插入图片描述

NVIDIA安装->仅需一路点击确下一步然后结束

安装成功的标志:

在这里插入图片描述

(2)安装cuDNN

解压与拷贝

在这里插入图片描述

因cuDNN属于是CUDA的一个补丁包,因此不要安装,仅需要将上述三个bin\include\lib文件夹中的相关文件拷贝到CUDA安装位置的bin,include,lib\x64文件夹中。

本电脑默认CUDA路径为:C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.6

验证

分别运行如下两个命令,若均为pass验证通过,则表示安装成功。

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.6\extras\demo_suite>bandwidthTest.exe

在这里插入图片描述

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.6\extras\demo_suite>deviceQuery.exe

在这里插入图片描述

(3)安装TensorRT

解压安装包后得到如下所示图:

在这里插入图片描述

安装TensorRT文件夹中的.whl文件*

pip install D:\chorm-download\TensorRT-8.4.1.5.Windows10.x86_64.cuda-11.6.cudnn8.4\TensorRT-8.4.1.5\python\tensorrt-8.4.1.5-cp38-none-win_amd64.whl 
其中cp38是依据环境使用的python版本获取的
pip install D:\chorm-download\TensorRT-8.4.1.5.Windows10.x86_64.cuda-11.6.cudnn8.4\TensorRT-8.4.1.5\graphsurgeon\graphsurgeon-0.4.6-py2.py3-none-any.whl 
pip install D:\chorm-download\TensorRT-8.4.1.5.Windows10.x86_64.cuda-11.6.cudnn8.4\TensorRT-8.4.1.5\onnx_graphsurgeon\onnx_graphsurgeon-0.3.12-py2.py3-none-any.whl
pip install D:\chorm-download\TensorRT-8.4.1.5.Windows10.x86_64.cuda-11.6.cudnn8.4\TensorRT-8.4.1.5\uff\uff-0.6.9-py2.py3-none-any.whl

安装完成相应的库以后,需要注意将TensorRT-8.4.1.5文件夹下的lib\include中的文件进行如下拷贝工作,防止在运行tensorrt时候无法找到相对应的Nvinfer.dll

  • TensorRT-8.4.1.5中include文件夹下所有文件拷贝到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.6\include

  • TensorRT-8.4.1.5中lib文件夹下所有lib文件拷贝到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.6\lib\x64

  • TensorRT-8.4.1.5中lib文件夹下所有dll文件拷贝到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.6\bin

(4)验证TensorRT是否安装成功

查看trt的版本

在这里插入图片描述

运行TensortRT文件夹下的sample.py

在这里插入图片描述

如果遇到错误:

在这里插入图片描述

解决方法:

去英伟达官网找到对应的zlibwapi.dll(依据电脑版本下载X64、X86版本的)文件,地址如下:zlibwapi,并将该dll拷贝到C:\Windows\System32文件夹下

至此,windows安装TensorRT的过程就结束了。

### 如何在Linux系统上安装NVIDIA TensorRT #### 准备工作 确保环境中已经配置好支持CUDA的NVIDIA GPU,并确认驱动程序正常运行。可以通过`nvidia-smi`命令验证GPU及其驱动是否被正确识别[^2]。 ```bash nvidia-smi ``` 此命令应返回关于当前系统内NVIDIA GPU的状态信息,而不是错误消息。 #### 下载TensorRT 前往[NVIDIA官方下载页面](https://developer.nvidia.com/nvidia-tensorrt-8x-download)[^3]获取适用于Linux系统的TensorRT包。根据具体的硬件架构(如x86_64或aarch64)和个人偏好选择合适的版本进行下载。 #### 安装依赖项 在正式安装之前,可能还需要额外安装一些必要的软件库来满足TensorRT的要求: ```bash sudo apt-get update && sudo apt-get install -y \ libcurl4-openssl-dev \ libnuma1 \ python3-pip ``` 对于Python开发人员而言,建议创建一个新的虚拟环境用于隔离项目依赖关系: ```bash python3 -m venv tensorrt_env source tensorrt_env/bin/activate pip install numpy ``` #### 解压并设置路径变量 假设已下载了`.tar.gz`格式的压缩文件,则可以按照如下方式解压它并将相应的目录加入到PATH环境变量中以便后续调用工具链中的组件: ```bash tar zxvf NVIDIA-TensorRT*.tar.gz cd NVIDIA-TensorRT* export PATH=$PWD:$PATH export LD_LIBRARY_PATH=$PWD/lib:$LD_LIBRARY_PATH ``` 此时应该能够看到类似这样的输出结构: ``` . ├── bin/ │ └── trtexec (推理性能测试工具) ├── include/ └── lib/ ``` 为了使这些更改永久生效,可考虑将其添加至用户的shell初始化脚本(`~/.bashrc`)里去。 #### 验证安装成果 最后一步是通过执行简单的样例程序来检验整个过程是否顺利完成。可以从源码树下的`samples`子目录找到多个示例应用;其中最基础的是mnist分类器,其构建方法如下所示: ```bash make -C samples/sample_mnist ./samples/sample_mnist ``` 如果一切顺利的话,上述指令将会打印出MNIST手写数字数据集上的预测结果,这标志着TensorRT已经在Linux平台上成功部署完毕。
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI小花猫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值