
元学习(Meta-Learing),又称“学会学习“(Learning to learn), 即利用以往的知识经验来指导新任务的学习,使网络具备学会学习的能力,是解决小样本问题(Few-shot Learning)常用的方法之一。在元学习中,训练单位是任务,一般有两个任务分别是训练任务(Train Tasks)亦称跨任务(Across Tasks)和测试任务(Test Task)亦称单任务(Within Task)。训练任务要准备许多子任务来进行学习,目的是学习出一个较好的超参数,测试任务是利用训练任务学习出的超参数对特定任务进行训练。随着元学习理论不断成熟,越来越多的自然语言处理任务开始引入元学习经典模型来攻克领域内的一些难点。少样本学习(Few-shot learning)则是从大量有标注数据的类别中学习到普遍的规律,利用学习到的知识,能够使用少量的有标注数据(如一张或五张)完成对新类别的识别。
关于元学习和少样本学习,AMiner整理了相关论文,助大家更深入了解近年来的发展情况。点击链接查看论文合集:https://www.aminer.cn/topic/5f8d76ea92c7f9be211b083d?f=cs
以下是从论文合集中整理出的一些优质论文:
1.Towards Fast Adaptation of Neural Architectures with Meta Learning
“为了解决NAS的可转移性问题,对神经架构进行快速适配,本文提出了一种基于元学习的可转移神经架构搜索方法,称为T-NAS…大量实验表明,T-NAS在少镜头学习中实现了最先进的性能,在监督学习中实现了可比的性能,但搜索成本降低了50倍,这证明了我们方法的有效性

本文介绍了元学习和少样本学习的基本概念,探讨了其在自然语言处理中的应用,重点列举了五篇优质论文,包括神经架构快速适配、生成模型提升ZSL性能、元学习语义分割和无记忆元学习等。通过AMiner平台,深入解析了这些研究如何推动技术发展,特别是T-NAS在NAS领域的突破和MetaSegNet在少样本分割中的优势。
最低0.47元/天 解锁文章
2万+

被折叠的 条评论
为什么被折叠?



