学习笔记--编译错误

在编译Flutter工程时出现如下错误:

  Cannot create service of type ReservedFileSystemLocationRegistry using ProjectExecutionServices.createReservedFileLocationRegistry() as there is a problem with parameter 

看错误信息是用ProjectExecutionServices创建什么服务

emmm…

最后 ./gradlew --stop
修复了问题

<think>好的,我现在要帮用户解决在Ubuntu 20.04上安装和配置TensorRT的问题。首先,我需要回忆一下用户提供的引用内容,看看有没有相关的步骤。用户提到了引用[1]中的Docker命令启动Triton服务器,引用[2]中的CMake编译TensorRT的示例,以及引用[3]中提到的libnvinfer.so.7缺失的问题。 首先,我应该从安装前的准备开始。用户可能需要安装CUDA和cuDNN,因为TensorRT依赖这些库。根据经验,TensorRT 8.x通常需要CUDA 11.x,而Ubuntu 20.04的默认仓库可能没有这些版本,需要从NVIDIA官网下载。需要提醒用户检查CUDA版本是否匹配。 接下来,安装TensorRT的方式。用户可能有两种选择:使用deb包或者tar包。deb包安装更方便,适合大多数用户,而tar包可能需要手动配置环境变量。引用[3]中的错误提示可能是因为环境变量没设置正确,或者库文件没找到。所以在安装步骤中需要详细说明如何设置LD_LIBRARY_PATH。 然后是验证安装部分。编译sampleMNIST.cpp是一个常见的测试方法,用户提到在引用[2]中用CMake编译,所以需要指导用户如何通过CMake来构建示例。这里可能需要检查CMakeLists.txt是否正确包含TensorRT的路径,以及是否找到必要的库文件。 使用教程部分,用户可能想了解如何转换ONNX模型到TensorRT引擎。这里需要提到trtexec工具,以及Python API的使用方法。同时,用户提到的onnxruntime和TensorRT的应用,可以建议结合使用这两个工具进行推理加速。 常见问题方面,引用[3]中的ImportError表明缺少libnvinfer.so.7,这可能是由于TensorRT版本不兼容或路径未正确设置。需要提醒用户检查安装路径,并确保环境变量包含TensorRT的lib目录。 最后,生成相关问题需要考虑用户可能的后续需求,比如性能优化、Docker使用中的GPU支持,以及与其他框架的整合问题。用户之前的问题涉及Docker和Triton服务器,所以相关问题可以包括这些方面。 需要确保步骤清晰,避免使用复杂术语,并给出具体的命令示例,方便用户复制粘贴。同时,注意引用对应的参考内容,例如Docker命令来自引用[1],编译示例来自引用[2],错误处理参考引用[3]。</think>### TensorRT在Ubuntu 20.04的安装配置与使用教程 #### 一、安装前准备 1. **系统要求** - Ubuntu 20.04 LTS - NVIDIA显卡驱动 >= 450.80.02 - CUDA 11.x(推荐CUDA 11.8) - cuDNN >= 8.6.0(需与CUDA版本匹配) 2. **验证CUDA环境** ```bash nvcc --version # 查看CUDA版本 nvidia-smi # 检查GPU驱动状态 ``` #### 二、TensorRT安装步骤 1. **方式1:deb包安装(推荐)** - 从[NVIDIA官网](https://developer.nvidia.com/tensorrt)下载对应版本的TensorRT deb包(如`nv-tensorrt-local-repo-ubuntu2004-8.6.1-cuda-11.8`) - 执行安装命令: ```bash sudo dpkg -i nv-tensorrt*.deb sudo apt-key add /var/nv-tensorrt-local-repo-ubuntu2004-8.6.1-cuda-11.8/7fa2af80.pub sudo apt update sudo apt install tensorrt ``` - **环境变量配置**(解决libnvinfer缺失问题[^3]): ```bash export LD_LIBRARY_PATH=/usr/lib/x86_64-linux-gnu:$LD_LIBRARY_PATH ``` 2. **方式2:tar包安装** - 解压下载的tar包后,将lib路径加入环境变量: ```bash export LD_LIBRARY_PATH=$TAR包解压路径/lib:$LD_LIBRARY_PATH ``` #### 三、验证安装 1. **编译官方示例**(基于引用[2]) ```bash cd TensorRT/samples/sampleMNIST mkdir build && cd build cmake .. -DTRT_LIB_DIR=/usr/lib/x86_64-linux-gnu make ./sample_mnist ``` 2. **Python接口验证** ```python import tensorrt as trt print(trt.__version__) # 应输出8.6.x ``` #### 四、使用教程 1. **ONNX模型转换** 使用`trtexec`工具将ONNX模型转为TensorRT引擎: ```bash trtexec --onnx=model.onnx --saveEngine=model.trt ``` 2. **Python推理示例** ```python import tensorrt as trt runtime = trt.Runtime(trt.Logger(trt.Logger.WARNING)) with open("model.trt", "rb") as f: engine = runtime.deserialize_cuda_engine(f.read()) ``` #### 五、常见问题 1. **ImportError: libnvinfer.so.7** 该错误表明环境变量未正确配置,需检查: ```bash echo $LD_LIBRARY_PATH # 应包含/usr/lib/x86_64-linux-gnu ``` 2. **Docker中使用GPU** 启动容器时需添加`--gpus all`参数(如引用[1]所示): ```bash sudo docker run -ti --gpus all ... ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值