引言
本文是长尾分布系列论文解析的第二篇,前情提要详见长尾分布系列论文解析(一)Decoupling Representation and Classifier for Long-Tailed Recognition,本篇要介绍的是回归任务中的长尾分布问题,相关论文为:
回归问题中的长尾分布
回归问题中的长尾分布和分类问题中的长尾分布存在着显著的区别,在回归问题中某一类(区间)的样本数目并不是仅仅只和其本身有关,而是和其邻域范围内的样本数目也有着关系。这是因为回归问题中的不同类别或者说是区间是存在着相似性的概念,相邻类别的样本是可以存在一定程度的信息共享和知识迁移的,即使是本类样本数目偏少,但在领域样本数目多的情况下也能获得不错的预测效果。而在分类问题中,不同类别样本的共享特征则少之又少。因此,可以总结成一句话:回归问题中的长尾分布并不能反应训练过程中模型看到的数据分布,作者也从实验的角度对这一结论进行了验证,分别检验了分类问题和回归问题中的数据分布与误差分布的关系:

可以看出在分类问题中测试集上的误差和训练数据分布基本出互补的趋势,即样本越多误差越小;而在回归问题中,这一趋势则没有明显体现,不同类样本的误差和训练数据数目的负相关性远不如分类问题中的来的强。
针对回归(连续标签预测)问题中长尾分布的特性,作者设计了LDS(Label Distribution Smoothing)和FDS(Feature Distribution Smoothing)两种方案来拟合其真实分布,从而可以将经典的长尾分布解决方法迁移到回归问题上。
LDS
LDS从标签的角度对回归问题中的数据分布进行平滑,具体而言就是用对称的核函数对数据集的原始标签分布进行滤波,从而使得每一类样本的出现概率都不仅仅与其本身有关,还牵涉到了领域样本的出现概率。典型的对称核函数有
高斯核或者拉普拉斯核。LDS使用后的效果如下图所示:

FDS
FDS从特征的角度对数据分布进行平滑,背后的基础假设是如果样本在标签的分布上具有连续性,那么在特征空间的分布同样应该具有连续性,也就意味着标签域上临近的样本在特征域上也应该更相近,反之亦然。而实际实验中的结果却并不如预先的一般,如下图:

可以看到在以某类多数样本的特征矩阵作为锚点和其他类比进行相似性度量时,其临近的多数样本和锚点具有很高的相似性,这证明了猜想是有一定道理的。但远处的少数样本类别同样有着较高的、反常相似性,这是因为其样本数目过少,模型无法从中学到足够的知识,而是暴力的将多数样本的信息迁移到其上,导致学到的特征非常类似。
为了解决这一问题,作者提出了FDS以在特征域上进行平滑,实现领域的特征共享。具体而言,首先对于给定的类别,首先计算其类内特征的均值和协方差如下:
μ = 1 N b ∑ i = 1 N b z i Σ b = 1 N b − 1 ∑ i = 1 N b ( z i − μ b ) ( z i − μ b ) T \mu=\frac{1}{N_b}\sum_{i=1}^{N_b}z_i\\ {\varSigma_b}=\frac{1}{N_b-1}\sum_{i=1}^{N_b}(z_i-\mu_b)(z_i-\mu_b)^T μ=Nb1i=1∑NbziΣb<

本文探讨了回归问题中长尾分布的特点,并提出LDS和FDS两种方案以缓解长尾效应带来的问题,通过标签和特征空间的平滑增强模型表现。
最低0.47元/天 解锁文章
Delving into Deep Imbalanced Regression&spm=1001.2101.3001.5002&articleId=127958114&d=1&t=3&u=4e72c2a23ce84cd2a1cbc6075006c86f)
2491

被折叠的 条评论
为什么被折叠?



