Zero-Shot Position Debiasing for Large Language Models

828 篇文章

已下架不支持订阅

本文提出ZOE框架,一种无需外部知识的零样本位置去偏方法,旨在改善大型语言模型(LLM)的位置偏差问题。通过预训练LLM的无监督响应和多目标优化模块(MSA),ZOE在多个数据集和任务上展现出优于现有方法的去偏效果,同时在有偏差样本上保持高效。未来工作将探索更优的无监督响应生成策略。

本文是LLM系列文章,针对《Zero-Shot Position Debiasing for Large Language Models》的翻译。

摘要

微调已被证明是提高大型语言模型(LLM)领域性能的有效方法。然而,LLM可能符合数据集的偏差和预测的快捷方式,导致生成性能较差。先前的工作已经证明,LLM容易表现出位置偏差,即利用位于开始或结束的信息,或输入中的特定位置线索。LLM的现有去偏方法需要外部偏误知识或注释的非偏误样本,这在位置去偏方面是缺乏的,在现实中是不切实际的。在这项工作中,我们提出了一个零样本位置去偏(ZOE)框架,以减轻LLM的位置偏差。ZOE利用来自预训练的LLM的无监督响应进行去偏,而不依赖任何外部知识。为了提高无监督响应的质量,我们提出了一个MSA模块来修剪这些响应。在八个数据集和五个任务上的实验表明,ZOE在减轻三种类型的位置偏差方面始终优于现有方法。此外,ZOE通过在有偏差的样本上仅牺牲很小的性能来实现这一点,这是通用且有效的。为了便于结果的再现性,我们在https://anonymous.4open.science/r/ZOE-F06B上共享所有方法和数据集的代码。

1 引言

2 前言

3 方法

4 实验

5 结果

6 分析

7 相关工作

</

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值