《Long-tailed Visual Recognition via Gaussian Clouded Logit Adjustment》
论文:链接: link
代码: 链接: link
设{x, y}∈T表示训练集T中的一个样本{x, y}, C类中有N个样本,且y∈{1,…, C}是ground truth标签。输入图像x的softmax损失函数为:

其中zj表示类j的预测logit。我们用下标y表示目标类,即zy表示目标logit, zj表示非目标logit, j≠ y表示非目标logit。
在反向传播中,zi上的梯度由:

在不损失一般性的情况下,我们使用二进制分类来说明。假设x来自第1类,则z1上的梯度计算为:

3.3 Classifier Re-balance
由式(2)导出的梯度表明,目标类y的样本惩罚非目标类j的分类器权值wj, j≠y w.r.t. pj。
头类比尾类有更多的训练实例。因此,在
使用CBEN进行长尾视觉识别的softmax损失调整

本文探讨了长尾视觉识别问题,通过Gaussian Clouded Logit Adjustment(GCL)调整softmax损失函数,以解决训练过程中尾部类别的分类器权重被过度惩罚的问题。提出了一种名为基于类的有效数抽样(CBEN)的方法,以避免尾部类别的过度训练,确保不同类别样本的有效参与训练,从而提高尾部类别的分类精度。
最低0.47元/天 解锁文章
3161

被折叠的 条评论
为什么被折叠?



