玩yolo是一回事,准备用起来又是另外一回事
自定义了一堆数据集,训练过后用来识别图片,发觉一个问题,明明很清晰没有什么遮挡的物体识别不出来,各种折腾后发觉问题根源在于有些图片的长宽比太大(1:2.5)导致的
在问过deep seek后尝试了以下的方法
1,yolo 识别中加入参数augment=True
2,在yaml文件中加入scales: [0.5, 2.0]
3,rect=True
上面的方案1是有效的,2有明显效果,但是准确率降低,3也不明确
当然deep seek还提供了一种分割方案,有点繁琐就没有尝试。
最有效的方案是调整imgsz,在识别的时候尽量最大化这个imgsz,例如我调整到了2752,默认是640,调整这个数值是提升识别率最有效的方案。
所以整体的方案就是 1,2,再加上imgsz尽量放大进行识别
加了scale的识别
没有scale的识别:

scale+augment
scale+augment+imgsz(2752)

最低0.47元/天 解锁文章
768

被折叠的 条评论
为什么被折叠?



