A Comprehensive Evaluation of Sequential Memory Editing in Large Language Models

828 篇文章

已下架不支持订阅

本文探讨了连续内存编辑对大型语言模型(LLM)性能的影响,发现参数修改的ME方法在多次编辑后性能下降,而参数保留的ME方法保持了基本能力但回忆困难。研究扩展到不同编辑设置,提供对记忆编辑如何、何时以及为何影响LLM的深入了解,为未来研究提供指导。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《Navigating the Dual Facets: A Comprehensive Evaluation of Sequential Memory Editing in Large Language Models》的翻译。

摘要

内存编辑(ME)已经成为一种有效的方法来修改错误的事实或将新的事实注入大型语言模型(LLM)。存在两种主流的ME方法:参数修改ME和参数保留ME(在保留原始参数的同时集成额外的模块)。令人遗憾的是,以前关于ME评估的研究有两个关键的局限性:(i)仅用单一编辑来评估LLM,忽略了连续编辑的必要性;(ii)仅关注基本的事实三元组,忽略了更广泛的LLM能力,如逻辑推理和阅读理解。这项研究通过三方面的贡献解决了这些局限性:(i)我们探索了ME如何在顺序编辑下影响LLM的广泛基本能力。实验结果揭示了一个有趣的现象:大多数修改参数的ME在经过几次连续编辑后,会持续降低所有任务的性能。相比之下,参数保留ME有效地保持了LLM的基本能力,但很难准确回忆以不同格式呈现的编辑知识。(ii)我们将评估扩展到不同的编辑设置,如编辑层、模型大小、指令调整等。实验结果表明,有几种策略可以潜在地减轻ME的不利影响。我们的深入研究提倡在现实世界

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值