一,YOLO
1,主要过程
1):将图片分成 S * S (论文中取7)个网格,若某个对象中心坐落于一个网格内,则该网格负责检测该对象。
2):每个网格预测B个bounding boxes和其相应confidence,confidence可以理解为该框包含对象的概率乘以IoU。
3):每个bounding box预测5个值,x、y、w、h、confidence,x、y是对象中心相对于网格边界的偏移量,w、h是相对于整张 图片的长度。
4):每个网格还会预测一个类别(注意,不是每个bounding box),即Pr(Class_i | Object)。故,在测试时需要把Pr和 confidence相称以表示类别概率。
综上,一张图片预测 S * S * (B * 5 + C) 个值。
2,结构

24个卷积层和2个全连接层,输出为7 * 7 * 30(S=7, B=2, C=20)。另,Fast YOLO中仅用了9个卷积层,用到的filter个数 也更少,其他完全相同。
3,训练
1):利用前20个卷积层+平均
YOLO系列详解:从基础到YOLOv3

本文详细介绍了YOLO(You Only Look Once)的目标检测算法,包括YOLO的基本原理、YOLOv2的改进点,如加入Batch Normalization、使用Anchor Boxes、多尺度训练等,以及YOLOv3的创新,如位置预测优化、类别预测的逻辑回归、类FPN结构和使用Darknet-53网络。通过这些改进,YOLO系列在速度和精度上达到了较好的平衡。
最低0.47元/天 解锁文章
24万+

被折叠的 条评论
为什么被折叠?



