The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition

本文是LLM系列文章,针对《The Strong Pull of Prior Knowledge in Large Language Models and
Its Impact on Emotion Recognition》的翻译。

大语言模型中先验知识的强大吸引力及其对情绪识别的影响

摘要

与传统的基于梯度的微调相比,上下文学习(ICL)已经成为一种强大的范式,可以在不更新模型参数的情况下使用大型语言模型(LLM)执行自然语言任务。ICL的承诺是,LLM可以以很小的成本适应以具有竞争力或最先进的水平执行当前任务。LLM以这种小样本方式执行任务的能力取决于它们对任务的背景知识(或任务先验)。然而,最近的工作发现,与传统学习不同,LLM无法完全整合来自对比任务先验的演示的信息。这可能导致次优水平的性能饱和,尤其是对于情绪识别等主观任务,由于人类注释的可变性,从文本到情绪的映射可能会有很大差异。在这项工作中,我们设计了实验并提出了测量方法,以明确量化LLM先验的代理的一致性及其对后验的影响。我们发现LLM在情感识别中具有强大但不一致的先验,这使它们的预测僵化。我们还发现,模型越大,这些影响就越强。我们的研究结果表明,当使用具有较大LLM的ICL进行预训练域之外的以影响为中心的任务时,以及在解释ICL结果时,需要谨慎。

1 引言

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值