笔者使用环境:
Tennsorrt8.6.1.6
CUDA11.7
下载YOLOv8项目和Tensorrt部署项目
git clone https://github.com/xiaocao-tian/yolov8_tensorrt.git
git clone https://github.com/ultralytics/ultralytics.git
在YOLOv8项目中新建weights文件夹,将yolov8s.pt放入

运行tensorrt项目中gen_wts.py文件,将pt文件转成wts文件,如上图
在tensorrt项目中新建weights文件夹,将wts文件复制过来,如下图

在tensorrt项目中新建build文件夹,然后使用cmake编译,注意tensorrt项目中Cmakelist.txt需要按照自己的实际情况(其中笔者在这步踩了很多坑,差点劝退,希望大家不要轻言放弃)
Tensorrt部署YOLOv8:从模型转换到本地调试

本文介绍了如何在Tensorrt环境下下载YOLOv8项目,将.pt模型转换为.wts,配置CMake并生成引擎文件,最后进行本地视频推理的过程。作者提醒读者在CMake配置过程中可能遇到的问题及注意事项。
最低0.47元/天 解锁文章
2万+





