【类不平衡】Focal Loss for Dense Object Detection

论文指出类不平衡是一、二阶段检测器性能差异主因,提出焦点损失函数(Focal Loss)解决该问题。先介绍二元分类的交叉熵损失函数及其劣势,又提及平衡交叉熵,最后阐述Focal Loss在交叉熵基础上加调制因子,重点训练困难样本,防止容易样本淹没检测器。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

论文地址:https://arxiv.org/abs/1708.02002
代码地址:https://github.com/facebookresearch/Detectron

摘要

论文中指出类不平衡是导致一阶段检测器与二阶段检测器之间性能差异的主要原因。
论文提出通过重塑标准交叉熵(standard cross entropy loss)来解决类不平衡,继而提出了一个新颖的损失函数:焦点损失(Focal Loss)。
Focal Loss重点训练一组稀疏的困难样本(hard examples),并防止大量容易样本在训练过程中淹没检测器。

Cross Entropy Loss

Focal Loss提出的目的:解决一阶段检测器在训练中存在前景与背景极端不平衡(e.g.,1:1000)的场景。
在介绍Focal Loss之前,先介绍下用于二元分类的交叉熵损失函数。
公式:
在这里插入图片描述
理解:
y ∈ {±1} ,代表标签类别;
p ∈ [0, 1] 是模型对带有标签y=1的类的估计概率。
为简洁表示,定义pt:
在这里插入图片描述
所以二元分类的交叉熵损失函数可表示为:
在这里插入图片描述
通俗理解:pt代表模型对类的估计概率,pt越大,代表模型分类越正确,即该样本越容易分类,其对损失函数的贡献也就越小。
下图可直观反映损失值CE Losspt增大的下降趋势。
在这里插入图片描述
该损失函数的劣势:
即使是易于分类的样本(pt>=0.5),在二元分类的交叉熵损失函数中也遭受了一个不可忽视的损失值,当存在大量的容易样本时,这些不可忽视的损失值可以压倒困难样本。

Balanced Cross Entropy

解决类不平衡的一种常见方法是为y=1类引入一个加权因子α∈ [0, 1],为y=-1类引入1-α,与pt类似,为简洁表达,定义了αt.
公式:
在这里插入图片描述
作用与劣势:
虽然加权因子α平衡了正负样本,但不能区分容易、困难样本。

Focal Loss

在交叉熵损失(cross entropy loss)函数的基础上加入一个调制因子在这里插入图片描述
公式:
在这里插入图片描述
其中可调节的聚焦参数γ≥ 0
理解:当一个样本被错误分类且pt较小时,调制因子接近1,该样本对损失函数的贡献变化不大;当一个样本容易分类且pt较大时,调制因子接近0,该样本对损失函数的贡献会大幅下降。直观变化见下图。
在这里插入图片描述
在实验中,最后采用以下的损失函数形式:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值