作者 | willer 编辑 | 极市平台
点击下方卡片,关注“自动驾驶之心”公众号
ADAS巨卷干货,即可获取
点击进入→自动驾驶之心【模型部署】技术交流群
后台回复【模型部署工程】获取基于TensorRT的分类、检测任务的部署源码!
导读
基于Tensor RT的YOLOv6超详细部署教程图文版。
部署环境和相关依赖包
Cuda 11.0.2
Cudnn 8.0.4.30
TensorRT 8.4.0.6
OpenCV 4.1.1
VS2019
项目所需的安装包均放到到如下百度云链接:
链接:https://pan.baidu.com/s/1C4jYSKAN2P_GSpFiikhY_g
提取码:71ou
部署流程
第一步把VS2019装好,安装略,百度云提供了安装包,可自行安装
第二步Cuda安装流程如下:









第三步:解压如上cudnn压缩包,把如下目录的文件拷贝到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0\bin目录下

把如下目录的文件拷贝到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0\include目录下

把如下目录的文件拷贝到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0\lib\x64目录下

第四步解压OpenCV和TensorRT备用

安装cmake







第五步onnx转tensorrt引擎,流程如下:
从GitHub下载部署代码https://github.com/zhiqwang/yolov5-rt-stack 进入如下目录

编辑CMakeLists,设置OpenCV和TensorRT目录


指定CMakeLists.txt目录以及要build的目录

点击cmake的tools->Configure



进入build目录,打开build工程

选择Release

点击生成->生成解决方案,编译完成后进入生成的exe目录

把tensorrt的dll文件放到exe目录下

进入C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0\bin目录把以下8个dll拷贝到exe目录
cublas64_11.dll
cublasLt64_11.dll
cudart64_110.dll
cudnn_cnn_infer64_8.dll
cudnn_ops_infer64_8.dll
cudnn64_8.dll
nvrtc64_110_0.dll
nvrtc-builtins64_110.dll

把官方的提供的onnx模型放到exe目录

在exe目录打开命令行,输入build_model.exe yolov6n.onnx yolov6n.engine生成tensorrt引擎
第六步tensorrt引擎推理流程如下:
进入D:\yolov6\yolov5-rt-stack\deployment\tensorrt-yolov6目录编辑CMakeLists,设置OpenCV和TensorRT目录

打开桌面上的cmake,设置tensorrt推理代码的CMakeLists.txt路径以及要build的目录

点击cmake的tools->Configure


点击Generate

打开build工程,选择release,点击生成->生成解决方案,生成tensorrt推理的exe



进入生成tensorrt引擎的exe目录(上一次build的目录)

拷贝dll以及tensorrt推理引擎到tensorrt推理的exe目录(当前build的目录)

把OpenCV的opencv_world411.dll拷贝到推理exe目录


在推理exe目录打开命令行,输入推理命令yolov6.exe -model_path yolov6n.engine -image_path zidane.jpg指定推理引擎路径以及推理图片路径,在推理exe目录生成推理可视化结果


【自动驾驶之心】全栈技术交流群
自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多传感器融合、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、硬件配置、AI求职交流等方向;
添加汽车人助理微信邀请入群
备注:学校/公司+方向+昵称