Ubuntu系统deb包的安装方法

本文详细介绍了Debian Linux系统中dpkg命令的使用方法,包括安装、卸载、配置等常见操作,帮助用户更好地管理和维护Debian软件包。
deb是debian linus的安装格式,跟Redhat的rpm非常相似,安装命令是:dpkg -i file.deb

dpkg 是Debian Package的简写,是为Debian 专门开发的套件管理系统,方便软件的安装、更新及移除。所有源自Debian的Linux发行版都使用dpkg。


Dpkg 的常用命令:


1、dpkg -i  file.deb      安装Debian 软件包

2、dpkg -c  file.deb     列出 deb软件包内容。

3、dpkg -I  file.deb      从deb软件包中提取包裹信息。

4、dpkg -r  file.deb      移除已安装的包裹。

5、dpkg -P  file.deb     完全清除一个已安装的包裹。和 remove 不同的是,remove 只是删掉数据和可执行文件,purge 另外还删除所有的配制文件。

6、dpkg -L  file.deb      列出 安装的所有deb文件清单

7、dpkg -s  file.deb      显示已安装包裹的信息。同时请看 apt-cache 显示 Debian 存档中的包裹信息,以及 dpkg -I 来显示从一个 .deb 文件中提取的包裹信息。

8、dpkg-reconfigure  file.deb    重新配制一个已经安装的包裹,如果它使用的是 debconf (debconf 为包裹安装提供了一个统一的配制界面)。


<think>我们正在处理用户的新问题:在Ubuntu系统上通过deb安装TensorRT。用户之前的问题是关于安装cuDNN,现在转向TensorRT。 根据NVIDIA官方文档,TensorRT可以通过多种方式安装deb、tar和pip。用户明确要求使用deb安装。 步骤概述: 1. 确定系统环境(Ubuntu版本和架构) 2. 下载对应版本的TensorRT deb(需要NVIDIA开发者账号) 3. 安装TensorRT及其依赖 4. 验证安装 注意:TensorRT需要CUDA和cuDNN的支持,请确保已经安装了兼容版本的CUDA和cuDNN。 以下以Ubuntu 20.04 (x86_64) 和 TensorRT 8.4.3(对应CUDA 11.4)为例。请注意,用户需要根据自己安装的CUDA版本选择合适的TensorRT版本。 步骤详细说明: 1. 确认系统环境: - Ubuntu版本:20.04(代号focal) - 架构:x86_64(amd64) 2. 下载TensorRT deb: 访问[NVIDIA TensorRT下载页面](https://developer.nvidia.com/nvidia-tensorrt-8x-download)(需要登录),选择与系统匹配的版本。 这里我们选择TensorRT 8.4.3 GA for Ubuntu 20.04 and CUDA 11.4 TAR package(注意:虽然用户要求deb,但官方下载页面提供的是含多个deb的tar文件,因为TensorRT有多个deb需要安装)。 也可以直接下载deb(如果提供单个deb的话),但官方通常将多个deb成tar文件。 例如,下载TensorRT 8.4.3.1的tar文件,然后解压得到deb。 3. 安装步骤: a. 下载并解压tar b. 使用dpkg安装所有deb(注意顺序) 4. 设置环境变量 5. 验证安装 具体步骤: 步骤1:下载TensorRT 假设我们下载了TensorRT 8.4.3.1 for Ubuntu 20.04 and CUDA 11.4的tar文件,文件名为:`TensorRT-8.4.3.1.Ubuntu-20.04.x86_64-gnu.cuda-11.4.cudnn8.2.tar.gz` 步骤2:解压并安装 ```bash # 创建安装目录 mkdir -p ~/tensorrt # 将下载的tar文件移动到该目录 mv TensorRT-8.4.3.1.Ubuntu-20.04.x86_64-gnu.cuda-11.4.cudnn8.2.tar.gz ~/tensorrt cd ~/tensorrt # 解压 tar xzvf TensorRT-8.4.3.1.Ubuntu-20.04.x86_64-gnu.cuda-11.4.cudnn8.2.tar.gz # 进入解压后的目录,会看到多个deb cd TensorRT-8.4.3.1 ls *.deb # 输出:nvinfer-dev_8.4.3-1+cuda11.4_amd64.deb nvinfer-dispatch-dev_8.4.3-1+cuda11.4_amd64.deb nvinfer-dispatch8_8.4.3-1+cuda11.4_amd64.deb nvinfer-headers-dev_8.4.3-1+cuda11.4_amd64.deb nvinfer-headers8_8.4.3-1+cuda11.4_amd64.deb nvinfer-lean-dev_8.4.3-1+cuda11.4_amd64.deb nvinfer-lean8_8.4.3-1+cuda11.4_amd64.deb nvinfer-samples_8.4.3-1+cuda11.4_amd64.deb nvinfer-vc-ml-dev_8.4.3-1+cuda11.4_amd64.deb nvinfer-vc-ml8_8.4.3-1+cuda11.4_amd64.deb nvinfer_8.4.3-1+cuda11.4_amd64.deb # 安装所有deb(注意:使用通配符可能会因为依赖问题导致安装失败,建议按顺序安装) # 官方推荐使用以下顺序安装: sudo dpkg -i nv-tensorrt-repo-ubuntu2004-cuda11.4-trt8.4.3.1-ga-20220620_1-1_amd64.deb # 但是,在解压后的目录中,我们并没有这个,所以可能是直接安装多个deb。 # 实际上,解压后的deb可以直接安装,但需要注意依赖。我们可以使用以下命令一次性安装所有deb(按字母顺序安装可能有问题,因此最好按照官方文档指定的顺序,但如果没有指定,则使用通配符) # 先安装主要,再安装其他 # 由于没有明确的顺序,我们可以尝试使用通配符,然后使用apt-get -f install修复依赖 sudo dpkg -i *.deb # 如果出现依赖问题,运行: sudo apt-get install -f ``` 但是,请注意:上述解压后的deb安装方式可能不是官方推荐的方式。官方推荐的是先安装一个本地仓库(.deb),然后通过apt-get安装。在下载页面,通常有两个选项: - 一个本地仓库(.deb),安装后可以使用apt-get安装TensorRT - 含所有deb的tar文件 我们这里下载的是tar文件,所以里面是独立的deb。因此,我们直接安装这些deb。 步骤3:安装依赖 TensorRT需要一些依赖库,如libnvinfer8, libnvonnxparsers8等,这些应该已经含在deb中。但是,如果缺少其他依赖,运行: ```bash sudo apt-get update sudo apt-get install -y python3-libnvinfer-dev # 以及其他需要的,根据错误提示安装 ``` 步骤4:设置环境变量 将TensorRT的库路径添加到环境变量: ```bash echo 'export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/lib/x86_64-linux-gnu' >> ~/.bashrc source ~/.bashrc ``` 步骤5:验证安装 方法1:检查版本 ```bash dpkg -l | grep nvinfer ``` 应该看到类似这样的输出: ``` ii nvinfer-dev 8.4.3-1+cuda11.4 amd64 TensorRT development libraries and headers ii nvinfer-samples 8.4.3-1+cuda11.4 amd64 TensorRT samples ii nvinfer_8.4.3-1+cuda11.4 8.4.3-1+cuda11.4 amd64 TensorRT runtime libraries ... ``` 方法2:运行示例 进入示例目录,编译并运行一个示例: ```bash cd /usr/src/tensorrt/samples/sampleMNIST sudo make cd ../../bin/ ./sample_mnist ``` 如果看到输出结果,说明安装成功。 注意事项: 1. 版本兼容性:TensorRT、CUDA、cuDNN和系统的兼容性非常重要。请参考NVIDIA官方文档的兼容性矩阵。 2. 如果使用Python API,还需要安装Python: ```bash pip3 install tensorrt ``` 注意:通过deb安装的TensorRT已经含了Python,但可能需要设置PYTHONPATH。通常,Python安装在`/usr/lib/python3.8/dist-packages`(根据Python版本不同而不同),系统应该能自动找到。 3. 如果使用PyTorch或TensorFlow,需要安装对应的转换器(如torch2trt)或集成(如tf-trt)。 常见问题: - 如果出现库找不到,检查环境变量LD_LIBRARY_PATH是否含TensorRT的库路径(通常是`/usr/lib/x86_64-linux-gnu`)。 - 如果使用Python时找不到tensorrt模块,检查Python版本和安装路径。 根据用户之前的问题,我们假设用户已经安装了CUDA 11.8,但注意TensorRT 8.4.3.1要求CUDA 11.4。因此,用户需要选择与CUDA 11.8兼容的TensorRT版本。目前(2023年3月),TensorRT 8.6.x支持CUDA 11.8。 因此,用户应该下载与CUDA 11.8兼容的TensorRT版本。例如,TensorRT 8.6.1.6 for Ubuntu 20.04 and CUDA 11.8。 步骤同上,只需将下载的tar文件替换为对应版本即可。 总结步骤: 1. 下载TensorRT deb(tar文件)[对应CUDA 11.8和Ubuntu 20.04] 2. 解压 3. 进入解压目录,安装所有deb 4. 修复依赖 5. 设置环境变量 6. 验证安装 注意:如果用户没有安装CUDA 11.8,需要先安装CUDA 11.8。同样,cuDNN也需要兼容版本(如8.6.0)。 参考引用: [NVIDIA TensorRT Installation Guide](https://docs.nvidia.com/deeplearning/tensorrt/install-guide/index.html) [^1] 生成相关问题: 1. 如何验证TensorRT是否被PyTorch正确使用? 2. 安装TensorRT后出现“Could not find: nvinfer.dll”错误如何解决? 3. 在Docker容器中安装TensorRT有哪些注意事项?</think>### Ubuntu 通过 DEB 安装 TensorRT 完整指南 以下是使用 DEB Ubuntu 系统安装 TensorRT 的详细步骤(以 TensorRT 8.6 GA for CUDA 11.8 为例): --- #### **步骤 1:准备系统环境** ```bash # 安装必要工具 sudo apt-get update sudo apt-get install -y build-essential devscripts ubuntu-dev-tools debhelper dh-make # 安装依赖库(根据实际需求调整) sudo apt-get install -y libnvinfer8 libnvonnxparsers8 libnvparsers8 libnvinfer-plugin8 ``` --- #### **步骤 2:下载 TensorRT DEB ** 1. 访问 [NVIDIA TensorRT 下载页](https://developer.nvidia.com/nvidia-tensorrt-download)(需注册账号) 2. 选择与 CUDA 11.8 兼容的版本: - TensorRT 8.6.1.6 for Ubuntu 20.04 x86_64 3. 下载本地仓库: ```bash wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/nv-tensorrt-repo-ubuntu2004-cuda11.8-trt8.6.1.6-ga-20230208_1-1_amd64.deb ``` --- #### **步骤 3:安装 TensorRT** ```bash # 安装本地仓库 sudo dpkg -i nv-tensorrt-repo-ubuntu2004-cuda11.8-trt8.6.1.6-ga-20230208_1-1_amd64.deb # 添加NVIDIA GPG密钥 sudo cp /var/nv-tensorrt-repo-ubuntu2004-cuda11.8-trt8.6.1.6-ga-20230208/7fa2af80.pub /usr/share/keyrings/ sudo apt-get update # 安装TensorRT主 sudo apt-get install -y tensorrt # 安装Python绑定(可选) sudo apt-get install -y python3-libnvinfer-dev python3-libnvinfer ``` --- #### **步骤 4:验证安装** 1. 检查版本: ```bash dpkg -l | grep nvinfer # 应显示类似:ii libnvinfer8 8.6.1-1+cuda11.8 amd64 ``` 2. Python 环境验证: ```python import tensorrt as trt print(trt.__version__) # 应输出 8.6.1 ``` 3. 运行示例: ```bash # 安装示例依赖 sudo apt-get install -y onnx-graphsurgeon # 运行ONNX解析示例 cd /usr/src/tensorrt/samples/python/onnx_parser python3 onnx_parser.py ``` --- #### **关键注意事项** 1. **版本兼容性**: | 组件 | 推荐版本 | |------|----------| | CUDA | 11.8 | | cuDNN | 8.6.0+ | | Python | 3.8+ | 2. **环境配置**: ```bash # 添加库路径 echo 'export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/lib/x86_64-linux-gnu' >> ~/.bashrc source ~/.bashrc ``` 3. **多版本管理**: ```bash sudo update-alternatives --config libnvinfer ``` 4. **PyTorch/TF 集成**: ```bash # PyTorch转换器 pip install torch torch-tensorrt --extra-index-url https://download.pytorch.org/whl/cu118 ``` ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值