Knowledge Editing on Black-box Large Language Models

828 篇文章

已下架不支持订阅

本文关注如何在无法直接访问内部状态的黑盒大型语言模型(LLM)上进行知识编辑,提出了一种全面的评估框架和postEdit方法,以解决隐私泄露和风格一致性问题。实验显示postEdit在保持文本风格和泛化能力上表现出色。

本文是LLM系列,针对《Knowledge Editing on Black-box Large Language Models》的翻译。

摘要

知识编辑(KE)旨在有效、准确地修改大型语言模型(LLM)的行为,以更新特定知识,而不会对其他知识产生负面影响。目前的研究主要集中在白盒LLM编辑上,忽略了一个重要的场景:黑盒LLM的编辑,即通过接口访问LLM,并且只有文本输出可用。在本文中,我们首先正式介绍了KE对黑匣子LLM的影响,然后提出了一个全面的评估框架,以克服现有评估不适用于黑匣子LLMs编辑且缺乏全面性的局限性。为了解决当前方法中编辑数据和风格过度编辑的隐私泄露问题,我们引入了一种新颖的postEdit框架,通过下游后处理解决隐私问题,并通过对原始响应进行细粒度编辑来保持文本风格的一致性。对两个基准测试的实验和分析表明,postEdit的性能优于所有基线,并实现了很强的泛化能力,尤其是在风格保持方面有了巨大的改进(平均+20.82%↑)。

1 引言

2 评估框架

3 方法

4 实验

5 分析

6 相关工作

7 结论

在本文中,我们首先介绍了一个黑盒LLM下知识编辑的综合评估框架,该框架融合了多个视角,并考虑了风格保留。接下来,我们提出了一个新的postEdit框架,通过对LL

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值