读论文:Charting the Right Manifold:Manifold Mixup for Few-shot Learning

本文研究了Manifold Mixup如何结合自监督学习(如Rotation和Exemplar)提升小样本学习性能。通过对中间层输出进行混合,该方法展示了对数据变化的鲁棒性和小样本任务的性能增强。在CIFAR-FS、CUB和mini-ImageNet数据集上的实验验证了其有效性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

读论文:Charting the Right Manifold:Manifold Mixup for Few-shot Learning


一、补充知识

什么是自监督学习?
自监督学习主要是利用辅助任务(pretext task)从大规模的无监督数据中挖掘自身的监督信息,通过这种构造的监督信息对网络进行训练,从而可以学习到对下游任务有价值的表征。其本质是一个feature提取器。

自监督学习所利用的pretext task层出不穷,主要介绍一下本文所采用的Rotation和Exemplar。
论文链接:Rotation
文章提出,通过训练ConvNets来识别输入图像的2D旋转来学习图像特征。在质量和数量上证明了这个看似简单的任务,实际上为语义特征学习提供了非常强大的监督信号。
论文链接:Exemplar
文章的思路是将无标签的图像进行旋转、平移、增强等操作,组成不同的数据集合(同一图像生成的图像为同一数据集合),利用CNN将不同数据集合区分开。其目的是区分不同图像并保证旋转、平移等变换的鲁棒性。

什么是Manifold Mixup?
论文链接:M

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值