【元学习和少样本学习】论文合集推荐丨元迁移学习、广义零次学习等

本文介绍了元学习和少样本学习的基本概念,探讨了其在自然语言处理中的应用,重点列举了五篇优质论文,包括神经架构快速适配、生成模型提升ZSL性能、元学习语义分割和无记忆元学习等。通过AMiner平台,深入解析了这些研究如何推动技术发展,特别是T-NAS在NAS领域的突破和MetaSegNet在少样本分割中的优势。

在这里插入图片描述

元学习(Meta-Learing),又称“学会学习“(Learning to learn), 即利用以往的知识经验来指导新任务的学习,使网络具备学会学习的能力,是解决小样本问题(Few-shot Learning)常用的方法之一。在元学习中,训练单位是任务,一般有两个任务分别是训练任务(Train Tasks)亦称跨任务(Across Tasks)和测试任务(Test Task)亦称单任务(Within Task)。训练任务要准备许多子任务来进行学习,目的是学习出一个较好的超参数,测试任务是利用训练任务学习出的超参数对特定任务进行训练。随着元学习理论不断成熟,越来越多的自然语言处理任务开始引入元学习经典模型来攻克领域内的一些难点。少样本学习(Few-shot learning)则是从大量有标注数据的类别中学习到普遍的规律,利用学习到的知识,能够使用少量的有标注数据(如一张或五张)完成对新类别的识别。

关于元学习和少样本学习,AMiner整理了相关论文,助大家更深入了解近年来的发展情况。点击链接查看论文合集:https://www.aminer.cn/topic/5f8d76ea92c7f9be211b083d?f=cs

以下是从论文合集中整理出的一些优质论文:

1.Towards Fast Adaptation of Neural Architectures with Meta Learning

“为了解决NAS的可转移性问题,对神经架构进行快速适配,本文提出了一种基于元学习的可转移神经架构搜索方法,称为T-NAS…大量实验表明,T-NAS在少镜头学习中实现了最先进的性能,在监督学习中实现了可比的性能,但搜索成本降低了50倍,这证明了我们方法的有效性

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值