1.下载源码
1.1 下载TensorRT编译版本
官方下载TensorRT编译版本,此处以TensorRT7.0.0.11-cuda10.2-cudnn7.6-ubuntu18.04为例子:
根据安装的cuda的版本选择,选择tar包即可
选择的版本要和安装的cuda对应。
1.2 下载TensorRT源码
git clone https://github.com/nvidia/TensorRT
cd TensorRT
git submodule update --init --recursive
git checkout release/7.0(# 注意需要将parse/onnx同样切换到release/v7.0)
将下载的TensorRT源码和1.1下载的TensorRT的tar包放置在同一目录下。
在这里插入图片描述
2.环境配置
# 进入存放源码的路径
cd TRT_ROOT
export TRT_RELEASE=`pwd`/TensorRT-7.0.0.11
export TENSORRT_LIBRARY_INFER=$TRT_RELEASE/targets/x86_64-linux-gnu/lib/libnvinfer.so.7
export TENSORRT_LIBRARY_INFER_PLUGIN=$TRT_RELEASE/targets/x86_64-linux-gnu/lib/libnvinfer_plugin.so.7
export TENSORRT_LIBRARY_MYELIN=$TRT_RELEASE/targets/x86_64-linux-gnu/lib/libmyelin.so
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$TRT_RELEASE/lib
3.添加自定义plugin
3.1 添加plugin
如自定义的plugin为myplugin,目录为:
在这里插入图片描述将myplugin文件夹拷贝到TensorRT-src/plugin中,并修改TensorRT-src/plugin中的CMakeLists.txt和InferPlugin.cpp:
3.2 修改CMakeLists.txt
在54行的位置添加如下内容:
在这里插入图片描述
3.3 修改InferPlugin.cpp
在50行修改:
在这里插入图片描述
在文件最后加入:
在这里插入图片描述
3.编译src
如果此时重新开启一个终端,需要再次执行2.环境配置中的命令。
cd TRT_ROOT
cd TensorRT-src
mkdir build
cd build
cmake .. -DTRT_LIB_DIR=$TRT_RELEASE/lib -DTRT_OUT_DIR=`pwd`/out
make -j${nproc}
make install
————————————————
版权声明:本文为优快云博主「hanqu3456」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接: