A Survey on In-context Learning

本文详细调查了上下文学习(ICL)在自然语言处理中的应用,探讨了ICL如何通过大型语言模型(LLM)仅使用少量示例进行预测。研究发现,模型预热、示例选择与排序、演示设计策略和评分函数对ICL性能至关重要。ICL展示了在传统任务和新挑战任务上的潜力,如小样本学习和多模态任务,但其稳定性和效率仍有待提高。未来的研究方向包括新预训练策略、ICL能力的蒸馏、鲁棒性和效率提升。

这是LLM系列相关综述文章的第二篇,针对《A Survey on In-context Learning》的翻译。

摘要

随着大型语言模型(LLM)能力的增强,上下文学习(ICL)已成为自然语言处理(NLP)的一种新范式,其中LLM仅基于通过几个例子增强的上下文进行预测。探索ICL来评估和推断LLM的能力已经成为一种新的趋势。在本文中,我们旨在调查和总结ICL的进展和挑战。我们首先给出了ICL的正式定义,并阐明了其与相关研究的相关性。然后,我们对先进技术进行了组织和讨论,包括训练策略、演示设计策略以及相关分析。最后,我们讨论了ICL面临的挑战,并为进一步的研究提供了潜在的方向。我们希望我们的工作能够鼓励更多关于揭示ICL如何工作和改进ICL的研究。

1 引言

在这里插入图片描述
随着模型大小和语料库大小的缩放,大型语言模型(LLM)展示了上下文学习(ICL)能力,即从上下文中的几个例子中学习。许多研究表明,LLM可以通过ICL执行一系列复杂的任务,例如解决数学推理问题。这些强大的能力已被广泛验证为大型语言模型的新兴能力。
语境学习的核心思想是从类比中学习。图1给出了一个示例,描述了语言模型如何使用ICL进行决策。首先,ICL需要几个例子来形成一个演示上下文。这些例子通常是用自然语言模板编写的。然后,ICL将一个查询问题和一段演示上下文连接在一起形成提示,然后将其输入到语言模型中进行预测。与需要使用后向梯度更新模型参数的训练阶段的监督学习不同,ICL不进行参数更新,而是直接对预训练的语言模型进行预测。该模型被期望学习隐藏在演示中的模式,并相应地

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值