- 博客(496)
- 资源 (3)
- 收藏
- 关注
原创 模型部署在docker中对外提供服务
本文实现了一个基于Flask的图像分类API服务,使用MobileNetV2模型进行图像识别。主要功能包括:1) 提供数值处理接口;2) 实现图片分类功能,返回Top3预测结果;3) 通过Docker容器化部署。项目结构包含Flask主程序、依赖文件和Docker配置,支持两种请求方式:处理数值数组(/predict)和图片分类(/classify)。测试表明,系统能正确识别公交车图像并返回概率分布,数值处理功能也正常运行。该服务通过Docker部署在9201端口,调用方可通过HTTP请求获取预测结果。
2025-11-16 22:10:55
187
原创 open3d使用gpu加速icp
本文展示了使用Open3D库实现多尺度ICP配准的方法。通过源点云和目标点云("cloud_bin_0.pcd"和"cloud_bin_1.pcd"),设置不同体素大小、收敛准则和最大对应距离进行多尺度ICP配准。程序分别在CPU和CUDA设备上运行,记录运行时间和配准精度(fitness和inlier RMSE)。结果显示,迭代过程中fitness从64.02%提升至80.06%,RMSE从0.1435降至0.1089。该方法可有效实现点云配准,并支持性能分析和参数
2025-11-16 22:09:35
383
原创 FastSAM模型onnxruntime和tensorrt部署
本文介绍了FastSAM模型在ONNXRuntime和TensorRT框架下的部署方法。首先展示了如何将PyTorch模型导出为ONNX格式,并提供了ONNXRuntime的完整推理脚本,包括图像预处理、模型推理、后处理(NMS、掩膜处理)和结果可视化。然后简要提及了TensorRT的部署方案,虽未提供完整代码,但表明可通过类似流程实现。两种部署方式均支持目标检测和实例分割任务,能够处理输入图像的尺寸变换、预测框解码、置信度过滤、非极大值抑制等关键步骤,最终输出带有类别、分数和掩膜的可视化结果。
2025-11-10 08:42:51
160
3
原创 模仿学习模型idp3部署
本文介绍了将IDP3模型转换为ONNX格式并进行推理的完整流程。首先通过GitHub下载Improved-3D-Diffusion-Policy代码,编写ONNX导出脚本加载预训练模型并导出ONNX格式。随后分别给出了ONNX Runtime和TensorRT两种推理实现方案:ONNX推理脚本展示了如何使用onnxruntime进行模型推理,而TensorRT脚本则通过trtexec工具将ONNX转换为TensorRT引擎,并提供了完整的CUDA加速推理示例。文中还包含了用于TensorRT缓冲区和流管理的
2025-11-10 08:07:27
330
原创 lerobot框架部署diffusion policy模型
文章摘要:该代码实现了一个基于扩散策略的机器人动作生成模型,主要修改了src/lerobot/policies/diffusion/modeling_diffusion.py文件。核心功能包括: 实现Diffusion Policy算法,通过动作扩散学习视觉运动策略 包含输入/输出数据的归一化和反归一化处理 使用队列缓存历史观测数据和动作轨迹 提供动作预测方法predict_action_chunk和动作选择方法select_action 支持图像和环境状态特征处理 包含模型重置功能,用于环境重置时清空缓存
2025-11-02 22:10:25
487
原创 lerobot框架部署act模型
摘要 本文介绍了Action Chunking Transformer (ACT)模型的关键实现细节,该模型用于细粒度双手机器人操作。主要修改包括: 在src/lerobot/policies/act/modeling_act.py文件中实现了ACTPolicy类,继承自PreTrainedPolicy 提供了模型初始化、优化参数获取、动作选择等功能 实现了reset()方法用于环境重置时清除动作队列 包含select_action()方法处理单个动作选择,通过动作队列管理实现高效执行 支持时间集成(tem
2025-11-02 22:09:39
460
原创 DEIMv2模型onnxruntime和tensorrt部署
文章摘要:本文介绍了DEIMv2模型在ONNX Runtime和TensorRT两种环境下的部署方法。通过Python代码示例演示了图像预处理、模型推理和后处理流程,包括保持宽高比的图像缩放、边界框调整和结果可视化。两种部署方式都支持目标检测任务,能够处理输入图像并输出检测框、类别和置信度分数。ONNX Runtime使用CPU执行,而TensorRT则利用CUDA加速,展示了深度学习模型在不同推理引擎上的实现方式。
2025-10-24 08:55:12
420
1
原创 DEIM模型onnxruntime和tensorrt部署
本文展示了DEIM模型在ONNX Runtime和TensorRT两种框架下的部署实现。两种方案都包含图像预处理、模型推理和后处理三个主要步骤。预处理部分采用resize_with_aspect_ratio函数保持图像宽高比并进行填充,推理部分分别使用ONNX Runtime和TensorRT加载模型执行预测,后处理通过draw函数绘制检测框和类别标签。两种方案的核心区别在于:ONNX Runtime使用CPU执行,而TensorRT通过CUDA引擎实现GPU加速。代码提供了完整的端到端部署流程,从图像加载
2025-10-24 08:31:45
167
原创 DINOv3分类网络onnxruntime和tensorrt部署
本文介绍了DINOv3视觉模型的三种部署方式:PyTorch推理、ONNX Runtime部署和TensorRT部署。在PyTorch部分,详细展示了模型加载、图像预处理和推理过程,并提供了将模型导出为ONNX格式的代码。ONNX Runtime部分说明了如何加载ONNX模型并进行推理,包括图像预处理和推理执行步骤。TensorRT部署部分则着重介绍了显存需求(约30GB)和推理流程,包括引擎加载、缓冲区分配和推理执行。三种方式均提供了完整的代码示例,涵盖了从图像预处理到最终推理输出的完整流程。
2025-10-20 20:38:48
389
原创 DINOv2分类网络onnxruntime和tensorrt部署
DINOv2模型部署指南:提供ONNX Runtime和TensorRT两种部署方式。首先从GitHub下载DINOv2源码,通过PyTorch导出ONNX模型(输入尺寸700x700)。ONNX模型结构包含多层Transformer模块。ONNX Runtime部署时需进行图像预处理(归一化、标准化),TensorRT部署需转换引擎文件并使用CUDA加速。两种方式最终输出分类结果,通过argmax获取预测类别。包含完整的预处理流程和推理代码示例,支持CPU和GPU加速。
2025-10-20 20:12:44
278
原创 DINO分类网络onnxruntime和tensorrt部署
本文介绍了DINO模型的两种部署方式:ONNX Runtime和TensorRT。首先展示了PyTorch推理和ONNX模型导出的代码,包括图像预处理、模型构建和权重加载。接着分别给出ONNX Runtime和TensorRT的推理脚本,详细说明图像预处理流程和推理步骤。两种部署方式都能正确识别测试图像中的公交车(类别636)。代码包含完整的预处理、模型加载和推理过程,适用于计算机视觉任务的模型部署实践。
2025-10-15 20:34:50
236
原创 point-transformer模型tensorrt推理部署
本文介绍了对Point-Transformer代码库的修改方案,主要涉及CUDA和PyTorch版本兼容性问题以及ONNX模型导出优化。首先需要将多个CUDA源文件中的THC头文件引用替换为ATen库引用,包括aggregation、grouping等核心模块。其次针对ONNX模型导出,重点修改了sampling模块的三个关键文件:重新实现了采样内核头文件,更新了CUDA接口实现,并优化了采样内核计算逻辑。这些修改确保了代码能够适配较新的CUDA和PyTorch版本,同时支持高效的ONNX模型导出。
2025-10-15 19:55:10
711
原创 knnQuery自定义tensorrt算子编写
本文介绍了如何将点云KNN查询操作导出为ONNX模型并转换为TensorRT插件。首先通过PyTorch定义了一个包含pointops.knnquery运算的模型,并导出为ONNX格式。然后详细描述了TensorRT插件的实现过程,包括创建knnQuery.h头文件和knnQuery.cpp源文件,其中定义了插件类knnQuery及其creator类,实现了必要的接口如初始化、执行、序列化等功能。该插件能够处理动态输入维度,支持CUDA加速计算,最终将点云KNN查询操作高效部署到TensorRT推理引擎中。
2025-10-12 10:33:42
523
原创 furthestSampling自定义tensorrt算子编写
本文介绍了如何将点云采样算法转换为TensorRT插件,主要包含两个部分:(1) 使用PyTorch导出ONNX模型;(2) 编写TensorRT插件实现。首先通过Python代码定义自定义模型并导出为ONNX格式,然后详细展示了C++实现的TensorRT插件类结构,包括插件初始化、维度计算、执行逻辑等核心功能。该方案使用TensorRT 10.6.0.26版本,通过封装CUDA核函数实现高效的点云最远点采样,适用于深度学习推理加速场景。
2025-10-12 10:21:41
421
原创 pointconv模型onnxruntime和tensorrt部署
本文介绍了PointConv模型的部署方法,包括ONNX Runtime和TensorRT两种方式。首先从GitHub下载源代码并自行训练模型。ONNX部署部分展示了如何将PyTorch模型导出为ONNX格式,并提供了Python推理脚本。TensorRT部署部分说明了如何将ONNX模型转换为TensorRT引擎,并给出了对应的推理代码示例。两种部署方法都支持动态批量处理,并提供了从预处理到模型推理的完整流程,适用于3D点云分类任务。
2025-10-08 10:58:38
280
原创 onnx模型和tensorrt模型的量化标定
ONNX和TensorRT模型量化工具对比 ONNX模型量化: 提供动态量化功能,支持权重和激活值的INT8量化 包含模型验证、量化执行和模型比较完整流程 主要功能包括: 动态量化模型权重 比较量化前后模型输出差异 计算模型大小压缩比例 使用onnxruntime量化接口实现 TensorRT模型量化: 基于INT8熵校准器实现 使用CUDA进行数据预处理和传输 支持校准缓存文件的读写 主要功能包括: 批处理数据准备 数据从主机到设备的内存拷贝 校准缓存管理 两种量化方法都旨在优化模型推理性能,但实现方式不
2025-10-08 09:05:31
201
原创 YOLOE模型onnxruntime和tensorrt部署
本文介绍了YOLOE模型的ONNX导出与部署流程。首先展示了如何将PyTorch格式的YOLOE模型转换为ONNX格式,并提供了模型结构示意图。然后详细说明了使用ONNX Runtime进行推理的完整代码实现,包括图像预处理、模型推理和后处理过程。后处理部分实现了非极大值抑制(NMS)、坐标转换和掩码处理等关键步骤。最后还提供了辅助工具函数,包含NMS算法、坐标转换和图像letterbox处理等实用功能。整个流程涵盖了从模型导出到实际部署的完整步骤,为YOLOE模型的工程化应用提供了参考实现。
2025-09-27 19:04:10
306
原创 graspnet模型tensorrt推理部署
本文介绍了对GraspNet代码库的修改过程,主要包括两部分:基础环境适配和ONNX模型导出。首先针对CUDA和PyTorch版本问题,修改了import语句和删除了冗余代码。其次为支持ONNX导出,对模型结构进行了调整,包括修改GraspNet类的前向传播逻辑、修正池化操作参数类型,以及重构pointnet2工具库。这些修改使代码能够兼容不同环境并支持模型导出,同时参考了相关部署指南确保正常运行。修改后的代码保留了原始功能,同时增加了模型转换的灵活性。
2025-09-27 18:43:55
440
原创 group_points自定义tensorrt算子编写
本文介绍了将PointNet2中的分组操作导出为ONNX模型并实现TensorRT插件的完整流程。主要内容包括:1) 使用PyTorch导出包含grouping_operation的ONNX模型;2) 基于TensorRT 10.6.0开发自定义插件,包括插件类GroupPoints和创建器GroupPointsCreator的实现;3) 插件支持动态输入维度计算、CUDA核函数调用和序列化等功能。代码展示了如何封装点云分组操作,使其能在TensorRT推理引擎中高效执行。该实现可用于优化3D点云处理任务的
2025-09-23 20:59:54
473
原创 cylinder_query自定义tensorrt算子编写
本文介绍了如何实现一个自定义的TensorRT插件CylinderQuery,用于处理点云数据中的圆柱体查询操作。首先通过PyTorch导出ONNX模型,展示了模型结构和输入输出维度。然后详细描述了TensorRT插件的开发过程,包括创建CylinderQuery类继承IPluginV2DynamicExt接口,实现核心功能如维度计算、CUDA核函数调用、数据类型支持等,并提供了插件创建器类。文章还说明了如何从官方渠道获取TensorRT 10.6.0.26的库和源代码,为开发自定义插件提供基础环境。
2025-09-23 20:31:23
708
原创 three_interpolate自定义tensorrt算子编写
本文介绍了将PointNet2中的three_interpolate操作导出为ONNX模型并实现TensorRT插件的过程。首先通过PyTorch导出自定义模型为ONNX格式,保存输入数据用于验证。然后基于TensorRT 10.6.0开发自定义插件,包含头文件定义插件接口和实现文件处理核心逻辑。插件采用IPluginV2DynamicExt接口,实现了维度计算、数据序列化、CUDA执行等功能,支持动态形状输入。文中提供了完整的插件类结构,包括ThreeInterpolate核心插件类和ThreeInter
2025-09-21 12:45:52
672
原创 three_nn自定义tensorrt算子编写
本文介绍了如何将PointNet2中的three_nn操作导出为ONNX模型,并实现TensorRT插件。首先通过PyTorch导出ONNX模型,然后基于TensorRT-10.6.0.26开发自定义插件,包括插件类的头文件定义和基本实现。该插件需要实现IPluginV2DynamicExt接口,包含维度计算、数据类型支持、序列化等核心功能,并配套创建器类ThreeNNCreator。文中提供了插件框架代码,为在TensorRT中实现点云处理的三近邻查找功能奠定了基础。
2025-09-21 11:40:37
522
原创 ball_query自定义tensorrt算子编写
本文介绍了如何将PointNet++中的ball_query操作导出为ONNX模型并实现TensorRT插件。主要内容包括:1) 使用PyTorch导出包含ball_query操作的ONNX模型;2) 分析导出的ONNX模型结构;3) 开发TensorRT插件实现ball_query功能,包括插件类的接口实现和CUDA内核封装。该插件支持动态输入维度计算,包含初始化、执行、序列化等核心方法,并提供了完整的插件创建器实现。文章给出了详细的TensorRT插件开发流程,包括头文件定义、核心类实现和CUDA内核封
2025-09-19 09:33:53
445
原创 gather_points自定义tensorrt算子编写
本文介绍了如何将PyTorch中的点云采样操作(gather_operation)导出为ONNX模型,并实现对应的TensorRT插件。首先通过自定义PyTorch模型导出ONNX结构,然后详细展示了TensorRT插件的开发过程,包括头文件和实现文件的编写。该插件实现了点云数据的高效采样功能,支持动态输入维度计算、CUDA加速执行以及序列化等特性。通过继承IPluginV2DynamicExt和IPluginCreator接口,完成了插件的基本框架和工厂模式的实现,为点云处理在TensorRT上的加速提供
2025-09-19 08:53:15
388
原创 furthest_point_sample自定义tensorrt算子编写
本文介绍了如何将PointNet2中的最远点采样(FPS)操作导出为ONNX模型,并实现对应的TensorRT插件。主要内容包括:1) 使用PyTorch导出带有最远点采样操作的ONNX模型;2) 通过分析ONNX模型结构,编写对应的TensorRT自定义插件;3) 使用CUDA实现了高效的最远点采样核函数,支持不同线程块大小的优化计算。该实现可作为3D点云处理中采样操作的加速方案,相比原始PyTorch实现可获得更好的推理性能。
2025-09-17 08:59:02
434
原创 pytorch自定义算子转tensorrt
摘要:本文介绍了如何将PyTorch模型导出为ONNX格式,并实现TensorRT自定义算子。首先定义了一个包含自定义算子MYPLUGIN的PyTorch模型,通过torch.onnx.export导出ONNX模型。然后详细讲解了TensorRT自定义算子的实现过程,包括创建插件文件夹、编写CUDA核函数(myselu_kernel)和插件类(myPlugin)。该插件类继承自IPluginV2DynamicExt,实现了必要的接口如序列化、反序列化、维度计算等。最后展示了模型推理结果,验证了自定义算子的正
2025-09-17 08:47:10
359
原创 pointnet++推理部署
本文介绍了PointNet++模型的ONNX推理部署方法,主要包括以下内容:1)从GitHub下载PointNet++代码工程;2)修改pointnet2_utils.py文件中的关键函数,包括点云归一化(pc_normalize)、欧式距离计算(square_distance)、最远点采样(farthest_point_sample)和球查询(query_ball_point)等核心操作;3)实现了点云采样和分组(sample_and_group)功能,用于构建局部特征。这些修改为将PyTorch模型转换
2025-09-04 13:07:33
413
原创 模仿学习模型diffusion_policy部署
文章摘要: 本文介绍了DiffusionUnetLowdimPolicy类的实现细节,这是一个基于扩散模型的低维动作预测策略。主要功能包括:1)从GitHub下载代码库;2)修改核心策略文件,实现条件采样和动作预测;3)支持通过局部或全局条件传递观测数据;4)使用DDPM调度器进行噪声预测和轨迹生成。该策略可以处理不同时间步长的观测和动作数据,并包含数据标准化等功能。关键方法conditional_sample实现了扩散模型的条件生成过程,而predict_action则负责将观测数据转换为预测动作。
2025-09-03 21:27:45
395
原创 模仿学习模型ACT部署
本文介绍了如何将ACT代码中的策略模型导出为ONNX格式并进行推理。首先从GitHub下载ACT代码,在imitate_episodes.py文件中添加导出ONNX模型的代码。然后展示了导出的模型结构图,并提供了Python推理脚本的使用方法:创建ONNX运行时会话,准备随机输入数据,执行推理并输出结果。整个过程实现了从PyTorch模型到ONNX格式的转换和部署应用。
2025-09-03 21:01:14
250
3
原创 SAM2模型onnx推理
该代码实现了一个基于ONNX的SAM2图像分割模型,包含编码器和解码器两部分。主要功能包括: SAM2Image类封装了完整的图像分割流程: 初始化时加载编码器和解码器模型 支持设置输入图像、点坐标和边界框坐标 通过decode_mask方法生成分割掩码 SAM2ImageEncoder类负责图像编码: 预处理输入图像(色彩转换、归一化、尺寸调整) 使用ONNX Runtime进行推理 输出图像特征嵌入 SAM2ImageDecoder类实现分割解码: 处理输入点坐标和标签 执行推理生成分割掩码 支持原始图
2025-08-31 11:36:04
416
原创 SAM模型onnx推理
摘要:该代码实现了一个基于ONNX模型的图像分割系统(SAM)。包含三个核心类: SAMImageEncoder - 负责图像预处理和特征提取 SAMImageDecoder - 处理点/框输入并生成分割掩码 SamImage - 整合编码解码流程,提供两种交互方式: 通过点坐标(set_points) 通过边界框(set_box) 示例展示了如何加载模型,输入图像并获取分割结果。系统支持CUDA加速,能处理不同尺寸的输入图像,并自动进行填充和归一化处理。最终输出为二值掩码,可叠加到原图上显示分割效果。
2025-08-31 11:33:57
292
原创 OpenMMlab导出MaskFormer/Mask2Former实例分割模型并用onnxruntime和tensorrt推理
本文介绍了使用MMDeploy工具将Mask2Former模型导出为ONNX格式并进行推理的完整流程。首先通过torch2onnx函数将PyTorch模型转换为ONNX模型,然后自行编写了Python推理脚本。推理过程包括:图像预处理(保持长宽比的缩放、填充)、模型输入标准化、使用ONNXRuntime运行推理、后处理(掩码缩放、分数计算和排序)以及结果可视化(绘制分割掩码)。特别处理了自定义算子支持,展示了如何将ONNX模型在实际应用中进行部署和推理。该流程适用于需要快速部署分割模型的场景。
2025-06-13 14:57:18
380
4
原创 OpenMMlab导出MaskFormer/Mask2Former全景分割模型并用onnxruntime和tensorrt推理
【代码】OpenMMlab导出MaskFormer/Mask2Former模型并用onnxruntime和tensorrt推理。
2024-12-11 23:22:22
1356
5
原创 一百行代码搞定Qt相机多线程
首先我们在Qt designer中创建一个简单的界面,只包含一个label用来显示相机图像,和两个pushButton分别用来开启和关闭相机。可以看到采图和显示图像的线程id是不同的,分别在两个线程中运行。这样,一个单线程Qt相机采图显示界面就做完了。
2024-12-11 20:56:49
593
原创 OpenMMlab导出Mask R-CNN模型并用onnxruntime和tensorrt推理
【代码】OpenMMlab导出Mask R-CNN模型并用onnxruntime和tensorrt推理。
2024-11-21 22:19:29
758
原创 GRCNN使用onnxruntime和tensorrt推理
本文介绍了GRCNN机器人抓取项目的模型转换与推理过程。首先从GitHub下载项目后,将训练好的PyTorch模型转换为ONNX格式,并展示了模型结构图。然后分别使用ONNXRuntime和TensorRT进行推理:ONNXRuntime版本实现了数据预处理、模型加载、推理执行以及结果后处理;TensorRT版本则详细展示了引擎加载、显存分配和推理流程。两种方法都能成功预测抓取点位置、角度和宽度,输出结果一致。代码提供了完整的数据处理流程和推理实现,便于在机器人抓取任务中应用该模型。
2024-11-21 22:18:08
368
原创 ppl.cv高性能图像处理库使用
下面几段介绍翻译自该项目的readme文件:ppl.cv 源于商汤科技不同团队对图像处理的需求,提供了一套常用图像算法的高性能实现,用于不同的深度学习应用的流水线中。它是一个轻量级的、可定制的图像处理框架。由于 OpenCV 等框架的实现体积大、依赖性复杂,我们希望提供一个灵活的框架,在开发和/或部署深度学习套件时,只需添加所需的算法即可满足各种图像处理应用。
2024-10-15 10:43:44
581
自动驾驶环境感知网课视频
2023-11-11
ICP算法的几种不同实现
2023-11-05
yolov5+SORT多目标跟踪
2023-08-24
yolov5目标检测多线程Qt界面
2023-08-12
yolov5目标检测多线程C++部署
2023-08-12
Qt+PCL+VTK开发的点云标注工具
2023-07-05
《图像分割实战》课程视频教程
2023-06-30
yolov8量化部署(基于openvino和tensorrt)
2023-06-11
Qt开发的labelimg-yolo
2023-03-27
pointnet-qt
2022-12-04
opencv+qt人脸检测demo
2022-11-20
线结构光平面方程标定程序
2025-11-15
vtk8.2.0-msvc2019-qt5.15.2-win64编译包
2024-12-04
vtk7.0.0-msvc2015-qt5.9.1-win64
2024-11-29
vtk9.1.0-msvc2019-qt5.14.2-win64编译包
2024-10-18
yolov5-v7.0网络分类、检测和分割OpenCV C++部署demo
2024-11-23
VS2019+CUDA11.1 Release x64编译的OpenCV4.5.5(带CUDA和contrib模块)
2024-11-23
中心线提取-GPU加速
2024-11-23
texture mapping纹理贴图
2024-11-23
ICP算法加速优化-多线程和GPU
2024-11-20
Open3D-v0.17.0-cuda11.1-msvc2019-win64.zip
2024-11-06
open3d-0.15.2-cp38-cp38-win-amd64.whl
2024-11-06
opencv4.10.0-cuda12.5.0-cudnn9.2.0-msvc2022-win64编译包
2024-10-23
opencv4.10.0-cuda12.5.0-cudnn9.2.0-python3.10.15编译包
2024-10-23
opencv4.9.0-cuda11.1-cudnn8.0.4-msvc2019-win64编译包
2024-10-08
pcl1.12.0-cuda11.1-cudnn8.0.4-msvc2019-win64编译包
2024-10-18
两百行C++代码实现yolov5车辆计数部署
2024-06-10
pyqt界面 计算树木las点云的树高、胸径、地径和冠幅面积
2024-06-01
点云裁剪界面qt+pcl+vtk
2024-05-27
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅