玩yolo是一回事,准备用起来又是另外一回事
自定义了一堆数据集,训练过后用来识别图片,发觉一个问题,明明很清晰没有什么遮挡的物体识别不出来,各种折腾后发觉问题根源在于有些图片的长宽比太大(1:2.5)导致的
在问过deep seek后尝试了以下的方法
1,yolo 识别中加入参数augment=True
2,在yaml文件中加入scales: [0.5, 2.0]
3,rect=True
上面的方案1是有效的,2有明显效果,但是准确率降低,3也不明确
当然deep seek还提供了一种分割方案,有点繁琐就没有尝试。
最有效的方案是调整imgsz,在识别的时候尽量最大化这个imgsz,例如我调整到了2752,默认是640,调整这个数值是提升识别率最有效的方案。
所以整体的方案就是 1,2,再加上imgsz尽量放大进行识别
加了scale的识别没有scale的识别:
scale+augment
scale+augment+imgsz(2752)
scale+imgsz 注意这里的百分比变化
imgsz
重新再看一遍 scale+augment+imgsz:
也就是说在这三个条件下,能够识别出来的物体匹配度是最可靠的。