YOLO : You Only Look Once

本文详细介绍YOLOv1至YOLOv3的发展历程和技术特点。包括一步到位的目标检测思想、网络结构改进、损失函数设计等内容,并重点讲解YOLOv2引入的Batch Normalization、High Resolution Classifier等增强技术。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

YOLO

迄今为止已经有三个版本,YOLOv1,YOLOv2, YOLOv3

YOLOv1

CVPR2016.5。经典文章,目标识别速度贼快,但定位有一定误差。对比R-CNN系列算法,YOLO是一步到位,同时给出位置信息和类别信息。

概述

将图片resize固定大小,分成s * s 个栅格(grid cell);滑动窗口滑动每一个栅格,对每一个栅格生成2个bounding box,每个bounding box包含4个坐标信息和一个confidence( Pr(Object)IOUtruthpred P r ( O b j e c t ) ∗ I O U p r e d t r u t h ),对于需要预测C个条件类别概率 Pr(Classi|Object) P r ( C l a s s i | O b j e c t ) ,最后 Pr=Pr(Classi|Object)Pr(Object)IOUtruthpred P r = P r ( C l a s s i | O b j e c t ) ∗ P r ( O b j e c t ) ∗ I O U p r e d t r u t h ;总共2*5+20 = 30维向量。综上每一栅格输出30维向量信息,且一个栅格最多只能预测一个物体,然后进行非极大值抑制(NMS),最后取大于阈值的检测信息。

网络架构

这里写图片描述

损失函数

λcoordi=0S2j=01objij[(xix^i)2+(yiy^i)2] λ c o o r d ∑ i = 0 S 2 ∑ j = 0 1 i j o b j [ ( x i − x ^ i ) 2 + ( y i − y ^ i ) 2 ]
+λcoordi=0S2j=01objij[(wiw^i)2+(hih^i)2] + λ c o o r d ∑ i = 0 S 2 ∑ j = 0 1 i j o b j [ ( w i − w ^ i ) 2 + ( h i − h ^ i ) 2 ]
+i=0S2j=01objij(CiC^i)2 + ∑ i = 0 S 2 ∑ j = 0 1 i j o b j ( C i − C ^ i ) 2
+λnoobji=0S2j=01noobjij(CiC^i)2 + λ n o o b j ∑ i = 0 S 2 ∑ j = 0 1 i j n o o b j ( C i − C ^ i ) 2
+i=0S21objicclasses(pi(c)p^i(c))2 + ∑ i = 0 S 2 1 i o b j ∑ c ∈ c l a s s e s ( p i ( c ) − p ^ i ( c ) ) 2

λcoord=5,λnoobj=0.5 λ c o o r d = 5 , λ n o o b j = 0.5
1objij 1 i j o b j 指对应栅格中有物体中心,且负责该物体的bounding box(如何判断哪个bounding box负责该栅格:confidence大的)
C表示 confidence=Pr(Object)IOUtruthpred c o n f i d e n c e = P r ( O b j e c t ) ∗ I O U p r e d t r u t h
p(c)=Pr(Classi|Object)Pr(Object) p ( c ) = P r ( C l a s s i | O b j e c t ) ∗ P r ( O b j e c t )

训练过程

先将网络的前20层用ImageNet1000类的数据集预训练(输入分辨率为224*224)
添加4层卷积和2层全连接层用作检测网络的训练(分辨率变为为448*448)

坐标处理

x,y表示预测bounding box 的中心与栅格左上角的相对值,且归一化为0~1。
w,h表示宽长,且值相对于整个图像的宽长,归一化为0~1。

YOLOv2

YOLO9000,Better,Faster,Stronger
CVPR2016.12
基于YOLOv1做出了一些改进,

Batch Normalization

对每一层的Z进行归一化,跟对A归一化差别不是很大,但一般都是对Z。

μ=1miz(i) μ = 1 m ∑ i z ( i )
σ2=1mi(ziμ)2 σ 2 = 1 m ∑ i ( z i − μ ) 2
znorm(i)=z(i)μσ2+ϵ z n o r m ( i ) = z ( i ) − μ σ 2 + ϵ
z^(i)=γz(i)norm+β z ^ ( i ) = γ ⋅ z n o r m ( i ) + β

上式的 γβ γ 和 β 类似于其他参数可以通过梯度下降算法学得。
MAP提高了2%

High Resolution Classifier

YOLOv2的分类网络先用448*448分辨率的ImageNet输入训练迭代十次;(据我理解微调之前仍然用了224*224的分辨类率进行预训练,不然也不叫微调了。)
然后再微调检测网络。
MAP提高了4%

Anchor boxes & Dimension Clusters

学习了Faster R-CNN的RPN网络,也采用Anchor boxes的思想。查全率上升,但也引起了查准率的略微下降。Anchor boxes的宽长比和数量很明显会影响算法最终的性能,
Faster R-RCNN中Anchor boxes的宽长比和数量是人为定义的,这意味着存在一定的优化空间。YOLOv2则采用K-means对训练集中的boxes聚类,从而选取最优的数量和宽长比,距离函数定义为:

d(box,centroid)=1IOU(box,centroid) d ( b o x , c e n t r o i d ) = 1 − I O U ( b o x , c e n t r o i d )

Direct location prediction

对预测的偏移量归一化处理,使得栅格内的anchor box只负责附近的物体,模型更加稳定。

bx=σ(tx)+cx b x = σ ( t x ) + c x
by=σ(ty)+cy b y = σ ( t y ) + c y
bw=pwetw b w = p w e t w
bh=pheth b h = p h e t h
Pr(object)IOU(b,object)=σ(to) P r ( o b j e c t ) ∗ I O U ( b , o b j e c t ) = σ ( t o )

这里写图片描述

聚类加上预测归一化处理MAP提高了5%

Fine-Grained Features(细粒度特征)

类似于残差网络,添加了一个跳跃,MAP提高了1%

Multi-scale Training

由于网络只用到了卷积层和池化层所以可以输入任意大小图片;由于降采样倍数为32;因此采用{320,352,……,608}尺寸进行训练;每训练10次就更换一个尺寸。最后鲁棒性很强。

网络架构

特征提取网络
特征提取网络

参考 https://blog.youkuaiyun.com/jesse_mx/article/details/53925356

YOLOv3

感觉东西不是很多,就没有去专门看。。。

内容概要:本文详细探讨了基于阻尼连续可调减振器(CDC)的半主动悬架系统的控制策略。首先建立了CDC减振器的动力学模型,验证了其阻尼特性,并通过实验确认了模型的准确性。接着,搭建了1/4车辆悬架模型,分析了不同阻尼系数对悬架性能的影响。随后,引入了PID、自适应模糊PID和模糊-PID并联三种控制策略,通过仿真比较它们的性能提升效果。研究表明,模糊-PID并联控制能最优地提升悬架综合性能,在平顺性和稳定性间取得最佳平衡。此外,还深入分析了CDC减振器的特性,优化了控制策略,并进行了系统级验证。 适用人群:从事汽车工程、机械工程及相关领域的研究人员和技术人员,尤其是对车辆悬架系统和控制策略感兴趣的读者。 使用场景及目标:①适用于研究和开发基于CDC减振器的半主动悬架系统的工程师;②帮助理解不同控制策略(如PID、模糊PID、模糊-PID并联)在悬架系统中的应用及其性能差异;③为优化车辆行驶舒适性和稳定性提供理论依据和技术支持。 其他说明:本文不仅提供了详细的数学模型和仿真代码,还通过实验数据验证了模型的准确性。对于希望深入了解CDC减振器工作原理及其控制策略的读者来说,本文是一份极具价值的参考资料。同时,文中还介绍了多种控制策略的具体实现方法及其优缺点,为后续的研究和实际应用提供了有益的借鉴。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值