Is it Possible to Edit Large Language Models Robustly?

828 篇文章

已下架不支持订阅

本文深入探讨大型语言模型(LLM)的编辑,关注其在交流人工智能中的应用及其稳健性。研究发现,尽管编辑方法有助于定制LLM,但在现实世界的情景下,特别是面对改写提示时,编辑性能会下降。更流行的知识在LLM中更稳定,但也更难编辑。这项工作揭示了模型编辑方法与实际应用之间的差距,并提供了未来改进的方向。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《Is it Possible to Edit Large Language Models Robustly?》的翻译。

摘要

大型语言模型(LLM)在构建模仿人类行为的交流人工智能方面发挥了关键作用,但面临着高效定制的挑战。为了应对这一挑战,最近的研究深入到了模型编辑领域,它操纵语言模型的特定记忆,并改变相关的语言生成。然而,模型编辑的稳健性仍然是一个悬而未决的问题。这项工作旨在了解编辑方法的优势和局限性,从而促进交流人工智能的稳健、现实应用。具体而言,我们进行了广泛的分析,以解决三个关键的研究问题。Q1:在现实情况下,经过编辑的LLM是否能始终如一地表现得像交流人工智能?Q2:提示的改写在多大程度上导致LLM偏离编辑后的知识记忆?Q3:哪些知识特征与编辑的性能和稳健性相关?我们的实验结果揭示了现有编辑方法与LLM的实际应用之间的巨大差异。在复杂灵活但在现实应用中很常见的改写提示上,编辑性能会显著下降。进一步的分析表明,更多的流行知识记忆得更好,更容易回忆,更难有效编辑。代码公开于https://github.com/xbmxb/edit_analysis.

1 引言

<

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值