小样本学习--笔记整理

本文介绍了小样本学习的定义及其在解决实际问题中的重要性,特别是当面临新类别数据有限时。文章详细阐述了C-way K-shot问题,并划分了小样本学习模型的三大类别:基于模型、基于度量和基于优化的方法。此外,讨论了数据增强在小样本学习中的关键作用,包括使用预训练模型、合成新数据等策略。最后,重点介绍了小样本学习在NLP领域的应用,如FewRel、ARSC和ODIC数据集,展示了其在关系分类、情感分析和对话理解等任务中的挑战和进展。

0- What is Few-shot Learning?

one-shot learning产生的动机大家都比较了解。现在在互联网,我们主要用large-scale方法处理数据,但真实情况下,大部分类别我们没有数据积累,large-scale方法不完全适用。所以我们希望在学习了一定类别的大量数据后,对于新的类别,我们只需要少量的样本就能快速学习。

目前考虑的解决方法主要有两个:

第一个是人能够识别一个从没有见过的物体,也就是zero-shot learning;

第二个是从已有任务中学习知识,将其应用到未来模型训练中,可以认为是一个迁移学习的问题。

Few-shot Learning 是 Meta Learning 在监督学习领域的应用。

C-way K-shot 问题:在训练阶段,会在训练集中随机抽取 C 个类别,每个类别 K 个样本(总共 CK 个数据),构建一个 meta-task,作为模型的支撑集(support set)输入;再从这 C 个类中剩余的数据中抽取一批(batch)样本作为模型的预测对象(batch set)

1. How Few-shot Learning?

Few-shot Learning 模型大致可分为三类:Mode Based,Metric Based 和 Optimization Based

Model Based 方法旨在通过模型结构的设计快速在少量样本上更新参数,直接建立输入 x 和预测值 P 的映射函数;直接进行有监督学习的方法,可以做基于实例的学习,比如KNN,以及非参数方法。

Metric Based 方法通过度量 batch 集中的样本和 support 集中样本的距离,借助最近邻的思想完成分类;

Optimization Based 方法认为普通的梯度下降方法难以在 few-shot 场景下拟合,

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值