In-context Vectors: Making In Context Learning More Effective and Controllable Through Latent Space

828 篇文章

已下架不支持订阅

本文介绍了一种新的方法,称为上下文向量(ICV),以增强大型语言模型(LLM)的上下文学习能力。通过在潜在空间中学习上下文向量,这种方法提高了模型遵循示例的能力,允许定量控制,并减少了上下文窗口的占用。ICV在各种任务上的实验显示了优于标准上下文学习和微调的性能,同时提供了在不添加演示的情况下组合不同任务的灵活性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《In-context Vectors: Making In Context Learning More Effective and Controllable Through Latent Space Steering》的翻译。

上下文向量:通过潜在空间指导使上下文学习更加有效和可控

摘要

大型语言模型(LLM)展示了涌现上下文学习能力,它们可以根据示例演示适应新任务。然而,在许多环境中,上下文学习的有效性有限,难以定量控制,并且占用了上下文窗口空间。为了克服这些限制,我们提出了一种替代方法,将上下文学习重新定义为上下文向量(ICV)。使用ICV有两个步骤。我们首先使用前向传递演示示例,从LLM的潜在嵌入创建上下文中的向量。此矢量捕获有关预期任务的基本信息。在一个新的查询中,我们没有在提示中添加演示,而是使用ICV转移LLM的潜在状态。ICV方法有几个好处:1)它使LLM能够更有效地遵循演示示例;2) 通过调节ICV的大小很容易控制;3) 它通过删除上下文中的演示来缩短提示的长度;4) ICV在计算上比微调效率高得多。我们证明,与标准相比,ICV在上下文学习和微调各种任务(包括安全、风格转换、角色扮演和格式化)方面取得了更好的性能。此外,我们还表明,通过在相应的ICV上进行简单的矢量算法࿰

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值