2017-2019年计算机视觉顶会文章收录 AAAI2017-2019 CVPR2017-2019 ECCV2018 ICCV2017-2019 ICLR2017-2019 NIPS2017-2019
文章介绍:https://zhuanlan.zhihu.com/p/40600485
一般对于Meta Learning问题,我们把training set也构造成test task的形式,实现episodic training。比如training set里面有60个类,但是我们test task是5way 1shot,那么我们就每次从training set中随机采样5个类,每一个类选一个图片作为我们task的训练样本,从而模拟test的过程。
那么这篇文章的想法是为什么不先把整个training set作为整理来训练,然后再研究如何迁移到few shot learning上。
所以这里就先使用整个training set做representation learning,学习一个好的Feature Encoder,然后就固定这一部分(也就是卷积层)不变,在神经网络最后分别引出两个softmax层,一个是针对旧的classes也就是training set,一个则是针对新的k-shot learning classes。那么这里最主要的问题就是两个不同softmax层对应的参数 如何联系起来?
作者想,那我们通过概率模型的方式来思考这个问题,我们把一开始representation learning阶段学到的 作为后验概率MAP,然后我们寻求学习一个共同的参数
来生成
及
,这样就可以让
和
实现联系,也就是
那么在具体的神经网络训练中,实际上就是一个joint training过程,文章中作者使用高斯分布来生成W,那么训练中就是构造出这样的损失函数让 生成的
逼近representation learning中生成的
同时使得
生成生成的
能够使K-shot learning损失最小。
评价一下这篇文章的方法就是感觉方法能够work最主要的还是因为第一阶段的representation learning阶段学习一个好的feature encoder,而后面对于softmax层的迁移感觉能学到的信息有限,作者做了一个很强的假设就是 能够直接代表可观察的训练数据
,这是否合理是需要论证的。
然后这篇文章看起来取得了很好的效果,实际上是因为将validation set里面的20类数据也拿来做representation learning了,这个是不符合其他paper的设定的,实际上本人之前的Relation Network如果把validation set直接也拿来训练,可以取得比这篇paper更好的效果。
总的来说这篇文章可以获得的启发很有限,由于其实验设定存在不公平之处,实际上不需要引用这篇文章的数据。
摘要
本文介绍了一种k-shot图像分类的概率框架。目标是将一个初始的大规模分类任务概括为一个包含新类和少量示例的独立任务。新方法不仅利用了神经网络从初始任务(表征转移)中学到的基于特征的表示,而且还利用了类的信息(概念转移)。将概念信息封装在概率模型中,得到神经网络的最终层权值,作为概率k-shot学习的先验。我们证明,即使是一个简单的概率模型,也能在一个标准的k-shot学习数据集上获得很大的优势。此外,它能够准确地建模不确定性,导致很好的校准分类器,并易于扩展和灵活,不像许多最近的k-shot学习方法。
介绍
人类对新事物的认知用到了之前学到的经验。本文的目标是构建用于执行k-shot学习的机器系统,该系统利用输入的现有特征表示和通过从大量标记数据中学习而得到的现有类信息。
现有方法很复杂很深,需要构建许多任务情景用于训练。与此相反,本文提出了一种基于深度特征提取器、批量分类训练和传统概率二值模型相结合的通用框架。它以这种方式包含了两种现有的方法[5,6],并受到来自多任务学习[7]的类似想法的启发。直觉是,深度学习将学习强大的特性表示(学习一个feature extractor),而概率推理将从旧类传递自顶向下的概念信息(以学到的特征作先验,用于few-shot任务)。表征学习依赖大量数据,概念信息向新类的传递依赖于相对较少的现有类和k-shot数据点,这意味着概率推理是合适的。
虽然在训练分类器时,泛化精度通常是关键目标,但在许多应用中,校准calibration也是一个基本问题。这里的calibration是指分类器的不确定性与其错误发生频率之间的一致性,到目前为止,k-shot研究忽略了不确定性。
本文首先使用一个标准的深度卷积神经网络(CNN)是在一个大的标记训练集上训练的,学习丰富的特征表示。