Jetson TX2 DeepStream-自定义Yolov3和Yolov3-tiny模型

该博客详细介绍了如何在Jetson TX2上使用DeepStream SDK集成和运行自定义的Yolov3和Yolov3-tiny模型。内容包括DeepStream的源文件目录、配置文件、校准文件、自定义模型解析函数的实现,以及运行模型的步骤。示例中展示了如何利用TensorRT的IPluginFactory接口创建Yolo模型的特定层,并在运行时重建用户定义的TensorRT层。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Deepstream的“源文件”目录位于“/opt/nvidia/deepstream/deepstream-5.0/sources”
这个示例展示了如何集成像Yolo这样的检测器模型,该模型通过TensorRT的IPlugin接口支持各个层,并使用DeepStreamSDK对检测到的对象进行自定义输出层解析。
示例使用IPluginFactory接口,在Yolo中创建特定的层,并配置由TensorRT提供的Yolo插件。
该例程演示了如何在运行时从engine文件中重建用户定义的TensorRT层。

文件详情

  • deepstream_app_config_yolo[V3,V3_tiny,V2,V2_tiny,tlt].txt
    使用YoloV2/ YoloV2 -tiny/yolo/yolo-tiny/tlt模型的应用程序配置文件
  • config_infer_primary_yolo[V3,V3_tiny,V2,V2_tiny,tlt].txt
    Yolo检测器模型的GStreamer nvinfer插件的配置文件
  • yolov3-calibration.table.trt7.0
    yoloV3 INT8 在TensorRT 7.0+上的校准二进制文件
  • nvdsinfer_custom_impl_Yolo/nvdsinfer_yolo_engine.cpp
    实现’NvDsInferCreateModelParser’/IModelParser为nvdsinfer解析自定义模型
  • nvdsinfer_custom_impl_Yolo/nvdsparsebbox_Yolo.cpp
    为Yolo模型检测到的对象提供输出层解析功能。
  • nvdsinfer_custom_impl_Yolo/yoloPlugins.h
    YoloLayerV3和YoloLayerV3PluginCreator的声明。
  • nvdsinfer_custom_impl_Yolo/yoloPlugins.cpp
    实现YoloLayerV3和YoloLayerV3PluginCreator。
  • nvdsinfer_custom_impl_Yolo/kernels.cu
    cuda内核的实现
  • nvdsinfer_custom_impl_Yolo/trt_utils.h
    安装tensorRT网络的实用程序
  • nvdsinfer_custom_impl_Yolo/trt_utils.cpp
    建立tensorRT网络的实用程序的实现
  • nvdsinfer_custom_impl_Yolo/yolo.h
    创建Yolo cuda引擎接口
  • nvdsi
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值