yolov8 tensorRT 的 C++ 部署

本文详细介绍了如何使用TensorRT7.1.3.4进行Yolov8模型的C++部署,包括导出ONNX模型、CMake配置、编译与运行,以及测试和模型替换的注意事项。
部署运行你感兴趣的模型镜像

Yolov8 tensorRT 的 C++ 部署

前几篇写了 yolov8 相关的 瑞芯微rknn、地平线Horizon 的仿真和C++相关的部署,以及tensorRT的python版本部署,本篇说说tensorRT 的 C++ 部署,所使用的模型是基于之前导出的onnx模型。

【完整代码、模型、测试图片】

TensorRT版本:TensorRT-7.1.3.4

1 导出 onnx 模型

导出适配本实例的onnx模型参考【yolov8 导出onnx-2023年11月15日版本】

2 编译

编译前修改 CMakeLists.txt 对应的TensorRT版本在这里插入图片描述

cd yolov8_tensorRT_Cplusplus
mkdir build
cd build
cmake ..
make

3 运行

运行时如果.trt模型存在则直接加载,若不存会自动先将onnx转换成 trt 模型,并保存在给定的路径,然后运行推理

# 运行时如果.trt模型存在则直接加载,若不存会自动先将onnx转换成 trt 模型,并保存在给定的路径,然后运行推理。
cd build
./yolo_trt

4 测试效果

onnx 测试效果
在这里插入图片描述
tensorRT 测试效果
在这里插入图片描述

tensorRT 时耗在这里插入图片描述

5 替换模型说明

1)按照本实例给的导出onnx方式导出对应的onnx;导出的onnx模型建议simplify后再转trt模型。

2)注意修改后处理相关 postprocess.hpp 中相关的参数(类别、输入分辨率等)。

修改相关的路径

    std::string OnnxFile = "/zhangqian/workspaces1/TensorRT/yolov8_trt_Cplusplus/models/yolov8n_ZQ.onnx";
    std::string SaveTrtFilePath = "/zhangqian/workspaces1/TensorRT/yolov8_trt_Cplusplus/models/yolov8n_ZQ.trt";
    cv::Mat SrcImage = cv::imread("/zhangqian/workspaces1/TensorRT/yolov8_trt_Cplusplus/images/test.jpg");

    int img_width = SrcImage.cols;
    int img_height = SrcImage.rows;

    CNN YOLO(OnnxFile, SaveTrtFilePath, 1, 3, 640, 640, 7);  // 1, 3, 640, 640, 7 前四个为模型输入的NCWH, 7为模型输出叶子节点的个数+1,(本示例中的onnx模型输出有6个叶子节点,再+1=7)
    YOLO.ModelInit();
    YOLO.Inference(SrcImage);

    for (int i = 0; i < YOLO.DetectiontRects_.size(); i += 6)
    {
        int classId = int(YOLO.DetectiontRects_[i + 0]);
        float conf = YOLO.DetectiontRects_[i + 1];
        int xmin = int(YOLO.DetectiontRects_[i + 2] * float(img_width) + 0.5);
        int ymin = int(YOLO.DetectiontRects_[i + 3] * float(img_height) + 0.5);
        int xmax = int(YOLO.DetectiontRects_[i + 4] * float(img_width) + 0.5);
        int ymax = int(YOLO.DetectiontRects_[i + 5] * float(img_height) + 0.5);

        char text1[256];
        sprintf(text1, "%d:%.2f", classId, conf);
        rectangle(SrcImage, cv::Point(xmin, ymin), cv::Point(xmax, ymax), cv::Scalar(255, 0, 0), 2);
        putText(SrcImage, text1, cv::Point(xmin, ymin + 15), cv::FONT_HERSHEY_SIMPLEX, 0.7, cv::Scalar(0, 0, 255), 2);
    }

    imwrite("/zhangqian/workspaces1/TensorRT/yolov8_trt_Cplusplus/images/result.jpg", SrcImage);

    printf("== obj: %d \n", int(float(YOLO.DetectiontRects_.size()) / 6.0));

【特别说明】:本示例只是用来测试流程,模型效果并不保证,且代码整理的布局合理性没有过多的考虑。

6 相关链接

yolov8 瑞芯微 RKNN 的 C++部署

yolov8 瑞芯微RKNN和地平线Horizon芯片仿真测试部署-2023年11月15日版本

yolov8 瑞芯微RKNN和地平线Horizon芯片仿真测试部署

您可能感兴趣的与本文相关的镜像

TensorRT-v8.6

TensorRT-v8.6

TensorRT

TensorRT 是NVIDIA 推出的用于深度学习推理加速的高性能推理引擎。它可以将深度学习模型优化并部署到NVIDIA GPU 上,实现低延迟、高吞吐量的推理过程。

### YOLOv8 TensorRT C++ Integration Example Implementation YOLOv8 的集成可以通过结合 NVIDIA TensorRT 来显著提升推理性能,尤其是在嵌入式设备或高性能计算环境中。以下是基于现有技术栈的一个可能实现路径。 #### 使用 TensorRT 编译并加载模型 为了在 C++ 中使用 YOLOv8TensorRT 进行集成,通常需要完成以下几个核心部分: 1. **构建环境** 首先,确保安装了支持的 CUDA 版本以及对应的 TensorRT 库版本。可以参考官方文档配置开发环境[^2]。例如,在 Windows 10 上运行时,建议通过 CMake 构建项目,并创建 `build` 文件夹来管理编译过程。 2. **序列化 ONNX 模型到 TensorRT Engine** 将训练好的 YOLOv8 模型导出为 ONNX 格式后,利用 TensorRT 提供的 API 加载该模型并生成优化后的引擎文件。以下是一个简单的代码片段展示如何初始化 TensorRT 并加载 ONNX 模型: ```cpp #include "NvInfer.h" #include <fstream> #include <iostream> using namespace nvinfer1; IBuilder* builder = createInferBuilder(gLogger); const auto explicitBatch = 1U << static_cast<uint32_t>(NetworkDefinitionCreationFlag::kEXPLICIT_BATCH); INetworkDefinition* network = builder->createNetworkV2(explicitBatch); IParse* parser = nvonnxparser::createParser(*network, gLogger); if (!parser->parseFromFile("yolov8.onnx", static_cast<int>(ILogger::Severity::kWARNING))) { std::cerr << "Failed to parse the ONNX file." << std::endl; exit(EXIT_FAILURE); } IBuilderConfig* config = builder->createBuilderConfig(); config->setMaxWorkspaceSize(1ULL << 30); // 设置最大工作空间大小为 1GB ICudaEngine* engine = builder->buildEngineWithConfig(*network, *config); ``` 3. **执行推理** 创建上下文对象并与输入/输出张量绑定,从而允许实际数据流经网络进行预测。下面展示了基本框架下的前向传播逻辑: ```cpp IExecutionContext* context = engine->createExecutionContext(); float input_data[INPUT_SIZE]; // 假设 INPUT_SIZE 已定义好 void* buffers[] = {input_buffer, output_buffer}; context->executeV2(buffers); ``` 4. **后处理结果** 对于检测任务而言,最终还需要解析边界框坐标、类别标签及其置信度得分等内容。这部分具体取决于所采用的数据格式及应用需求。 --- #### 注意事项 - 在多线程环境下部署时需注意资源竞争问题。 - 如果目标平台硬件规格较低,则应适当调整超参数以平衡精度与速度之间的关系。 - 调试过程中可能会遇到各种异常情况(如内存不足),务必提前做好充分准备以便快速定位原因所在。 ```cpp // 示例:释放所有分配给 TRT 的资源 if (context != nullptr) context->destroy(); if (engine != nullptr) engine->destroy(); if (builder != nullptr) builder->destroy(); ``` [^1] ---
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值