CoLLEGe: Concept Embedding Generation for Large Language Models

本文提出CoLLEGe,一种针对大型语言模型的小样本概念学习框架,能用少量数据生成概念嵌入。通过元学习方法,CoLLEGe在预训练任务上直接学习,无需额外微调即可在新概念学习、定义推理和言语推理等任务中表现优秀。然而,生成的嵌入有时会忽略具体细节,且平均机制在多支持序列时效果有限。未来研究将探索不同数据组合对嵌入的影响和在线连续概念获取。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《CoLLEGe: Concept Embedding Generation for Large Language Models》的翻译。

摘要

当前的语言模型无法快速学习新概念,通常需要更复杂的微调过程才能稳健地学习。在上下文中进行提示对上下文干扰并不是很有力,而且往往无法提供关于新概念的太多信息。NLP中基于全局词向量的经典小样本词学习方法不太适用于大型语言模型。在本文中,我们介绍了一种新的方法CoLLEGe(具有语言嵌入生成的概念学习)来实现小样本概念学习的现代化。CoLLEGe是一个元学习框架,能够使用少量的例句或定义为新概念生成灵活的嵌入。我们的主要元学习目标只是促进语言模型在即将到来的句子中进行下一个单词的预测,使其与语言模型预训练兼容。我们设计了一系列任务来测试在具有挑战性的现实世界场景中的新概念学习,包括新词获取、定义推理和言语推理,并证明我们的方法在没有特定任务训练的情况下在每种情况下都能成功。

1 引言

2 相关工作

3 CoLLEGe:概念学习与语言嵌入生成

4 用于训练CoLLEGe的数据集

5 实验

6 结论和讨论

在本文中,我们提出了CoLLEGe,这是一个用于预训练LLMs的新概念获取和知识增强的小样本学习框架。我们在原始预训练任务上建模我们的元学习

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值