Ubuntu 18.04安装TensorRT 7.2.1

本文档详细介绍了如何下载、解压TensorRT 7.2.1,并在Ubuntu 18.04系统上配置环境变量,以及安装对应的Python版本和相关库(TensorRT、UFF、GraphSurgeon、ONNX GraphSurgeon)。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 下载TensorRT 7.2.1

下载地址

2. 解压缩

tar -zxvf TensorRT-7.2.1.6.Ubuntu-18.04.x86_64-gnu.cuda-10.2.cudnn8.0.tar.gz

3. 修改环境变量

vim ~/.bashrc
export LD_LIBRARY_PATH=/home/lixj/Downloads/trt-fasterrcnn/TensorRT-7.2.1.6/lib:$LD_LIBRARY_PATH

4. 安装对应python版本

cd TensorRT-7.2.1.6 python
pip install tensorrt-7.2.1.6-cp36-none-linux_x86_64.whl
cd ../uff/
pip install uff-0.6.9-py2.py3-none-any.whl
cd ../graphsurgeon/
pip install graphsurgeon-0.4.5-py2.py3-none-any.whl
cd ../onnx_graphsurgeon/
pip install onnx_graphsurgeon-0.2.6-py2.py3-none-any.whl
### 解决 Ubuntu 18.04TensorRT 安装中的未满足依赖关系问题 在 Ubuntu 18.04安装 TensorRT 时遇到 `unmet dependencies` 的问题是常见的,通常可以通过以下方法来解决。 #### 方法一:修复损坏的软件包 如果系统中有损坏的软件包或者不一致的状态,可以尝试通过以下命令修复: ```bash sudo apt --fix-broken install ``` 此命令会重新下载并安装缺失或损坏的依赖项[^1]。执行该操作后再次尝试更新和升级系统的软件包列表: ```bash sudo apt-get update sudo apt-get upgrade ``` 这些步骤有助于清理可能存在的冲突或过期条目。 --- #### 方法二:手动指定依赖项 有时,TensorRT 需要特定版本的库文件作为其依赖项。例如,在某些情况下,它可能会依赖于 NVIDIA 提供的支持 CUDA 或 cuDNN 的库。因此,建议先确认所需的依赖项是否已正确安装。以下是常见依赖项及其安装方式: 1. **CUDA** 如果尚未安装 CUDA,请访问官方页面获取适合的操作系统版本对应的安装脚本,并按照说明完成安装过程。 2. **cuDNN** 同样地,确保 cuDNN 已经被适配到当前使用的 CUDA 版本下。可以从 NVIDIA 开发者网站下载相应的 tar 文件解压至 `/usr/local/cuda/` 路径中[^4]。 3. **其他必要的开发工具链** 对应的编译器以及构建环境也需要同步配置好,比如 GCC 和 Make 等基础组件。 对于具体的依赖清单,可以根据实际提示逐步添加缺少的部分直到不再报告错误为止。 --- #### 方法三:调整 APT 缓存策略 当存在多个源提供同一名称却不同架构类型的程序包时容易引发此类矛盾现象。此时可通过修改优先级规则让系统倾向于选取兼容性更高的选项之一种办法如下所示: 编辑偏好设置文档(`/etc/apt/preferences`)加入类似下面的内容(假设目标平台为 amd64): ```plaintext Package: * Pin: release o=Ubuntu Pin-Priority: 900 Package: *:i386 Pin: release o=Ubuntu Pin-Priority: -1 ``` 这样做的目的是降低 i386 架构相对于本地主机默认支持的 x86_64 (即 AMD64) 平台的重要性级别从而减少跨体系结构混合带来的复杂度风险[^2]. 之后记得刷新索引数据以便更改生效: ```bash sudo apt-get clean all && sudo apt-get autoclean sudo rm -rf /var/lib/apt/lists/* sudo apt-get update ``` --- #### 方法四:使用 Docker 镜像替代原生部署 考虑到直接基于宿主操作系统定制化程度较高可能导致难以完全匹配厂商预设条件的情况, 另一种推荐方案则是利用容器技术如 Docker 来加载已经预先打包好的完整运行时环境镜像实例来进行实验验证工作. NVIDIA 官方维护了一系列针对 GPU 加速计算优化过的公共可用资源可供选用其中包括了集成有最新版 TensorRT 功能模块在内的全套解决方案集合可以直接拉取下来启动即可立即投入使用无需关心底层细节实现部分. ```dockerfile FROM nvcr.io/nvidia/tensorrt:21.07-py3 ... ``` 更多关于如何创建自定义项目工程模板的信息可查阅相关手册指南链接地址[^3]. --- 以上便是几种可行的技术手段用来应对因未能达成预期前提条件下所造成的阻碍情形希望对你有所帮助!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值