- 博客(9)
- 问答 (1)
- 收藏
- 关注
原创 yolov8目标检测多Batch批次C++ TensorRT推理
由于个人的项目特殊性,需要检测的图片分辨率很大,通常需要将一张图片切分4张/5张进行检测,尽管C++上TensorRT部署,模型的推理耗时已经得到了非常大的提升了,不过本着优化到极致的初衷,花了两周时间研究了下yolov8的python版本:onnx、tensorrt下的多batch部署和C++下TensorRT的多Batch部署,有感兴趣的可以下载学习,也可以加我微信,手把手教程。有需要可私信你的微信号,我加你发送(收费哦~)
2025-02-20 14:58:23
172
原创 YOLOV11自定义数据集制作(手把手详细教程)
最近正好有空,准备研究一下yolov11,训练和部署跑通之后,发现没有找到详细点的训练教程,呢就自己做一个,顺便分享一下,后续会分享yolov11的 python推理部署 和 C++(tensorrt)推理部署的手把手教程,路过的点个关注先,以免错过~运行完之后,会在datasets根目录下生成以下三个训练所需的文件:train.txt 、 val.txt 、 test.txt。对于yolov11的项目环境搭建,网上教程很多,也很详细,这里就不浪费时间了~xml转换为txt,创建:xml2txt.py。
2024-10-16 11:20:17
4351
2
原创 YOLOV8 det 多batch TensorRT 推理(python )
bboxes: 100 4 变为 4 100 4。scores: 100 变为 4 100。后续抽空再补上TenormousrtC++的推理部分。labels: 80 变为 4 80。num_dets:1 变为 4 1。
2024-09-18 17:21:42
1043
2
原创 可视化模型特征提取能力
对模型输出增加两个坐标,将每个训练批次的数据映射到二维坐标系中,通过保存每个批次的映射图,查看模型训练程度。resnet18网络代码如下:(可一键切换为其他的res网络,测试选择了速度最快的res18)可视化效果如下:( epoch = 78,使用resnet18网络)
2024-07-09 10:06:49
668
原创 全连接、卷积网络优化 + MobilenetV2网络复现+小项目
由于链式法则在计算梯度时的影响,在神经网络的层数较多时,意味着连乘越多,因此很容易导致其中某一个比较小的值在连乘过程中被快速缩小,直至变为0,从而导致模型出现了梯度爆炸,也就是超出了计算机所能支持的最小计算精度。总结:如果是为了防止过拟合,就用L2,希望把W变小,减弱模型的学习能力就行了,但是不希望变成0,变成0,会导致模型的退化,Relu激活函数的缺陷就是,会把结果变为0.通过使部分模型权重失活的方式,来减少模型的参数量,以此防止过拟合的出现,需要对任务难度评估和对应的模型参数搭配非常熟悉。
2024-07-05 17:38:23
1149
原创 YOLOV5 Segment ONNX部署(python)随笔
2.模型推理得到的proto,后处理由于用onnx推理,输出并不是Tensor,初始想法是想将后处理部分中使用Tensor处理的部分全部用numpy替换,后来发现需要替换的地方太多,个别部分有点麻烦,所以还是选择转为Tensor进行处理。从推理结果发现,比上次使用pytorch直接推理的效果要好些,没有仔细找原因,有看出来的兄弟私信我。后处理部分,基于yolov5 的segment 后处理,优化了一些,因此和源码可能不太一样。如果需要半精度量化,参考之前发的yolov5 detect的onnx部署。
2024-07-02 16:17:55
664
原创 YOLOV5 Segment Pytorch部署(python)随笔
总结:和pred同时输出的,seg部分的proto的后处理部分需要仔细理解一下,二pred输以及后处理和detect基本完全一样。yolo的语义分割效果看起来并不是很好,当然,coco数据集的数据标注也并非挑不出毛病,因此,不排除效果差的原因来自于数据。
2024-07-01 16:24:53
404
2
原创 YOLOV5 Pytroch部署(python) 随笔
需要将yolov5s官方权重和模型打包在一起,便于使用,否则就得在项目中放入yolov5 model的源码,实时加载,不建议。有更好的建议,欢迎指点哈~
2024-06-28 15:51:46
197
原创 YOLOV5 onnx部署(python)随笔
3.推理耗时来看:fp16下:0.00583 fp32下:0.00900, fp16耗时提升3.17ms,性能提升35.22%,可以看出单张推理耗时上,fp16的优势较大。2.GPU占用:显卡使用的是NVIDIA GeForce RTX 4060,波动性较大,在1.1G - 4.2G之间,没有查明原因。4.模型大小来看:fp16:14.9MB fp32:27.9MB ,缩小13MB ,46.59%1.从推理的置信度来看没有太大的区别,但是并不代表自己的项目会没有较大影响,还是多做实验。
2024-06-28 15:40:52
846
使用pip instal -r requirements.txt安装的时候报错如下:
2022-03-26
TA创建的收藏夹 TA关注的收藏夹
TA关注的人