基于度量的小样本分类
摘要
我们提出了一种基于类的度量缩放(CMS)机制,它可以应用于训练和测试阶段。具体地说,在训练阶段,度量标量被设置为可学习参数,帮助学习更有区别和可转移的特征表示。在测试方面,我们构造了一个凸优化问题来生成一个最优标量向量来改善最近邻决策。此外,我们还涉及到一个低秩双线性池化层,以提升表示能力,这进一步提供了显著的性能增益。
1. Introduction
最近基于最接近类中心的方法[32,39,6,7,4]由于其简单和有效而引起了广泛的关注。这些方法的基本步骤是预训练一个特征提取器,其中训练方式可以是元学习[39,41]或只是带有可学习的分类层的常规监督训练[32,6,7]。为了解决一个目标小样本任务,利用少量标注样本的特征嵌入构造了一个最接近中心的分类器。一般来说,每个类的中心可以通过属于该类的嵌入的平均值来计算。值得注意的是,最近的类中心分类器只存储一个类中心向量来表示一个类别。这种有限的表示在小样本情况下成为一种优势,因为它有效地缓解了过拟合。
在图一(a),左边虚线在两个类中心中间,但是,类1比类2分布更大而且内方差更大。直观地,更合理的决策边界应该更偏向类2。为了改进有偏差的决策边界,我们提出了CMS,我们将普通的不可知类的距离与基于类的关于类分布的度量标量相乘,如图一(b)所示。因此,可以隐式考虑类内方差的多样性,以提高分类精度。
CMS的优势:
1。基于类分布信息对每个类别进行缩放的方法不会改变任何训练过程或度量函数,实现简单;
2。CMS中的缩放值(标量)约等于类别方差的倒数。CMS可以认为是一种特殊的高斯混合模型,带来更灵活的类别表示。
3。CMS在元训练阶段学习得到,并在元测试阶段自适应的为每个任务得到task-specific scale,即CMS也使元测试阶段受益。
在跨域场景和半监督小样本学习方面也有贡献
2. Related works
Meta-learning
情景训练机制有效促进了小样本学习的发展。大多数情景训练方法基于对新任务快速适应下的模型最优化和避免过拟合。然而,在测试阶段,这些方法由于模型微调是费时的。
Metric-based few-shot Learning
基于度量的方法的目标是首先是学习深度可转移的表示,然后推广它来识别新类,我们的方法就是基于度量的。由于不同的训练过程,我们可以分为两类。一类是基于情景训练学习特定的距离度量,比如原型网络,关系网络, TADAM ,Covariance Metric Networks ,DeepEMD。另一类是用标准监督学习方式预训练一个带有分类层的特征提取器,然后建立一个nearest-centroid(最近中心)分类器去解决目标小样本任务。特别的,之前的

本文提出了一种名为CMS的机制,用于小样本分类问题。CMS通过学习类别的度量标量,改进特征表示和决策边界,考虑了类内方差,从而提高分类准确性。在训练阶段,度量标量作为可学习参数,而在测试阶段,通过凸优化问题确定最优标量,以适应任务特性。此外,低秩双线性池化层增强了表示能力。CMS可以解释为高斯混合模型的特殊情况,提供了更灵活的类表示。
最低0.47元/天 解锁文章
469





