Focal Loss for Dense Object Detection
焦点损失(Focal loss)的提出的观点是:
-
作者发现单阶段的检测方式(SSD or YOLO)相对于两阶段检测(Faster-RCNN)的检测速度是很快,但是准确率不足。为什么呢?
-
作者认为是因为样本类别不均衡问题
样本类别不均衡包含前后背景的样本不均衡(目标检测会生成很多的候选区域,但是实际包含目标的很少,所以前后背景的样本数目分布不均) 也包括其他类别的影响(这里借用一下EQLloss所提及的观点“其他类别实例的正样本是当前类的负样本”)。 -
负样本数目太多占据loss的较多权重,并且有些大多数比较容易进行区分(前后背景,还有一些简单目标实例),而focal loss提出就是为了减少易分类样本的权重,让模型偏向于难分类的样本
很有意思,让模型偏向于难分类的样本,这个难分类就可以的难检测的目标或者总的实例数目不多的目标(长尾学习),所以在长尾学习领域Focal loss也可以有一定作用,但是要仔细思考自己的数据集中难检测目标是什么?是因为实例数目少而难检测,还是本身目标小干扰大的难坚持目标
Focal loss的工作原理:
CE loss:
交叉熵损失是一个分类损失,具体的公式如下(比较简单没什么说的):

a t {a_{t}} at-CEloss:
在类不平衡上增加一个权重 a t {a_{t}}

Focal Loss是一种为了解决目标检测中样本类别不平衡问题而设计的损失函数。它通过减少容易分类样本的权重,使模型更专注于难以分类的样本,特别是在长尾分布的数据集上。Focal Loss结合了交叉熵损失并引入了一个调制系数,该系数降低了易样本的权重,从而优化了模型训练。该方法在处理背景样本过多或少量实例的目标检测任务中表现出色。
最低0.47元/天 解锁文章
95

被折叠的 条评论
为什么被折叠?



