论文阅读《Deep Long-Tailed Learning: A Survey》综述(二)

本文对长尾学习方法进行实证研究,提出新的评估指标——相对准确度Ar,以衡量处理类别不平衡的效果。实验在ImageNet-LT数据集上进行,对比了20多种方法,包括成本敏感学习、迁移学习、表示学习等。结果显示,大多数方法优于Softmax基线,但单纯看准确度并不准确,Ar度量能更全面反映长尾学习的性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

4实证研究

本节对现有的长尾学习方法进行实证分析。首先,我们引入一个新的评估指标

4.1新颖的评估度量

长尾学习的关键目标是处理类不平衡以获得更好的模型性能。因此,常见的评估协议[13],[22]直接使用top-1测试精度(用At表示)来判断长尾方法的执行情况,以及哪种方法更好地处理类不平衡。然而,当处理类别不平衡时,这样的度量不能准确地反映不同方法之间的相对优势,因为除了类别不平衡之外,前1名的准确性还受到其他因素的影响。例如,像集成学习(或数据增强)这样的长尾方法也可以提高模型的性能,在平衡的训练集上进行训练。在这种情况下,很难判断性能的提高是来自类不平衡的缓解还是来自更好的网络架构(或更多的数据信息)。为了更好地评估该方法在处理类别不平衡方面的有效性,我们提出了一种新的度量标准,即相对准确度Ar,以减轻长尾学习中不必要因素的影响。为此,我们首先计算经验上参考精度Au = max(Av,Ab),它是在具有交叉熵的平衡训练集上训练的相应主干的标准精度Av和在具有相应长尾方法的平衡训练集上训练的模型的平衡精度Ab之间的最大值。这里,平衡训练集是长尾训练集的变体,具有相似的总数据数,但是每个类具有相同的数据数。从平衡的训练集获得的这个较高的参考精度用于减轻除类别不平衡之外的影响;那么相对精度定义为Ar = At/Au。在我们的实验中,所有的准确度、上参考准确度和相对准确度将用于评估。

4.2实验设置

我们接着介绍实验设置。

数据集。我们采用广泛使用的ImageNet-LT [15]作为实证研究的基准长尾数据集,考虑到ImageNet-LT具有1000个大规模类和256的大不平衡率。ImageNet-LT的相应平衡训练集变体基于[13]进行采样。ImageNet-LT的总样本数可在表1中找到。除了关于所有类的性能,我们还报告了ImageNet-LT中三个类子集的性能:头部(超过100个图像)

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值