自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Glen_Liu

lx1523@buaa.edu.cn

  • 博客(9)
  • 收藏
  • 关注

原创 Linkage Based Face Clustering via Graph Convolution Network

Linkage Based Face Clustering via Graph Convolution Network本文使用图卷积做基于边预测的脸聚类,如果两个点属于同一类,那么这两个点之间就会有一条边连接,最后找出所有的图即找到了所有的簇,也不用事先指定簇的个数。本文只考虑局部信息,即一个节点和它的邻居节点,最后再将所有的子图的聚合,得到所有节点的聚类结果。问题定义假设现在有脸图像的特征...

2019-10-09 14:31:21 480

原创 Zero-shot Recognition via Semantic Embeddings and Knowledge Graphs

Zero-shot Recognition via Semantic Embeddings and Knowledge Graphs考虑零样本的识别问题,在没有训练样本的情况下对某个类别学习一个分类器,仅仅使用该类别的词向量和其他类别(有视觉数据提供)关系。处理不熟悉或者新类别的关键在于从熟悉类别迁移知识到新类别。本文中,以图卷积神经网络为基础,提出了一种同时使用语义向量和类别间关系来预测分类器...

2019-10-09 14:28:38 600

原创 Reptile:On First-Order Meta-Learning Algorithms

与MAML类似,Reptile是一种寻找神经网络初始化参数的元学习方法,在新任务上只需要少量数据进行 fine-tune。与MAML不同的是,Reptile只需要简单地每个任务上执行SGD而不需要像MAML一样计算两次微分。这使得Reptile消耗的计算量和内存更少。在MAML中,作者也使用了一次微分进行了实验,发现效果是差不多的,虽然看起来是丢失了一些信息,确切的说,本文就是基于FOMAML的。...

2018-12-09 22:22:20 3448

原创 MAML:Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks

元学习的目标是在各种学习任务上训练一个可以仅仅使用少量训练样本就可以解决新任务的模型,在本文中,模型的参数训练很明确,所以从新任务的少量样本做几步梯度下降就可以在新任务上得到好的泛化性。同时,由于模型可应用于一系列使用梯度下降训练的模型,包括分类,回归,强化学习等等,所以也叫作模型无关的模型。本文的关键思想在于训练模型的初始参数,使得模型的参数在某个新任务上仅适用少量样本经过一步或者几步梯度下降...

2018-12-09 22:15:31 5687

原创 OSMN:Efficient Video Object Segmentation via Network Modulation

本文中,利用modulators快速地调整segementation networks使其可以适应特定的物体,而不需要执行数百次的梯度下降;同时不需要调整所有的参数。在视频目标分割上有两个关键的点:视觉外观和空间中持续的移动。为了同时使用视觉和空间信息,将visual modulator和spatial modulator进行合并,在第一帧的标注信息和目标空间位置的基础上分别学习如何调整main ...

2018-12-09 21:45:46 1460

原创 CAML: FAST CONTEXT ADAPTATION VIA META-LEARNING

本文同样以MAML为基础,与MAML不同的是,MAML在每个新任务上会更新所有的参数,而CAML将模型的参数分成了两部分,一部分是context parameters,作为模型的额外输入使其适应于单独的任务;另一部分是shared parameters,在任务间共享并通过元学习训练过程优化。CAML在每个新任务上只更新模型的context部分的参数,这样可以在使用更大的网络情况下避免在单一任务上...

2018-12-09 21:42:11 1594 3

原创 A SIMPLE NEURAL ATTENTIVE META-LEARNER

数据集Omniglot包含50个字母表的1623个手写字符,每个字符包含20个样本先调整尺寸到28x28,之后通过多次旋转90度的方式增加字符的种类,一共6492类划分训练集:82240项 4112类验证集:13760项 688类测试集:33840项 1692类Mini-ImageNet从ImageNet中随机选取100个类,每类包含600个样本将尺寸缩放到84x8...

2018-12-03 16:08:21 4276 6

原创 TADAM:Task dependent adaptive metric for improved few-shot learning

本文基于度量学习,发现简单的度量尺度会完全改变少样本学习参数更新的本质,同时提出了一个简单且有效的任务依赖的度量空间学习方法,可以根据不同的任务进行特征提取。通过度量缩放的方式,作者将余弦相似度与欧拉距离在少样本学习上的差距缩小了10%,也就是说度量的选择没有那么重要。另外,还提出了辅助任务协同训练,使得具有任务依赖性的特征提取更容易训练,并且具有很好的泛化能力背景考虑episodic形式的K...

2018-11-17 22:06:37 3952 3

原创 Few-Shot Image Recognition by Predicting Parameters from Activations

Few-Shot Image Recognition by Predicting Parameters from Activations本文基于神经网络中同一类别倒数层的激活值和最后的全连接softmax层的参数有密切的关系,通过训练一个参数预测器,使得在大量数据集中预训练过的网络可以通过直接从激活值预测参数的方式将模型映射到只有少量样本的测试数据集中。作者希望模型可以在少样本和大量样本的情况...

2018-11-15 16:28:35 1937

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除