本文是LLM系列文章,针对《Memory-Based Model Editing at Scale》的翻译。
摘要
即使是最大的神经网络也会出错,而曾经正确的预测可能会随着世界的变化而失效。模型编辑器对基础(预训练)模型的行为进行局部更新,以注入更新的知识或纠正不期望的行为。现有的模型编辑器已经显示出了希望,但是也受到表达能力不足的困扰:它们难以准确地为编辑的预期范围(受编辑影响的示例)建模,导致对与编辑松散相关的测试输入的不准确预测,并且在许多编辑之后它们经常完全失败。作为一种更高容量的替代方案,我们提出了带有检索增强反事实模型(SERAC)的半参数编辑,该模型将编辑存储在显式内存中,并学习对它们进行推理,以便根据需要调整基本模型的预测。为了对模型编辑器进行更严格的评估,我们介绍了基于问题回答、事实检查和对话生成的三个具有挑战性的语言模型编辑问题。我们发现,只有SERAC在所有三个问题上都实现了高性能,并且始终比现有的模型编辑方法表现出色。代码、数据和其他项目信息将在https://sites.google.com/view/serac-editing上提供。