1. 前言
Focal Loss最初是由Kaiming大神在Focal Loss for Dense Object Detection一文中提出的,旨在解决目标检测中的数据类别不平衡造成的模型性能问题,也常用于NLP领域。
本质上,Focal Loss是解决分类问题中类别不均衡、分类难度差异的一个损失函数。
2. 细节
2.1 交叉熵损失函数
CE(p,y)={
−log(p),y=1−log(1−p),y=otherwise CE(p,y)=\left\{ \begin{matrix} -log(p), y=1 \\ -log(1-p) ,y=otherwise \end{matrix} \right. CE(p,y)={
−log(p),y=1−log(1−p),y=otherwise
令:
pt={
p,y=11−p,y=otherwise p_t=\left\{ \begin{matrix} p, y=1 \\ 1-p ,y=otherwise \end{matrix} \right. pt={
p,y=11−p,y=otherwise
所以:
CE(p,y)=CE(pt)=−log(pt) CE(p,y)=CE(p_t)=-log(p_t) CE(p,y)=

本文介绍了Focal Loss的概念及其在解决分类问题中类别不均衡、分类难度差异的应用。详细阐述了交叉熵损失函数、样本不平衡问题及Focal Loss的数学表达,并通过与平衡交叉熵对比,突出了Focal Loss的特点。
最低0.47元/天 解锁文章
2万+

被折叠的 条评论
为什么被折叠?



