本文是LLM系列文章,针对《Model Editing Can Hurt General Abilities of Large Language Models》的翻译。
摘要
大型语言模型(LLM)的最新进展为访问存储在其参数中的知识开辟了新的范式。出现的一个关键挑战是,由于虚假或过时的知识,LLM输出中存在幻觉。由于用更新的信息重新训练LLM是资源密集型的,因此对模型编辑的兴趣越来越大。然而,许多模型编辑方法虽然在各种场景中有效,但往往过于强调编辑性能中的功效、泛化和局部性等方面,往往忽视了对LLM总体能力的潜在副作用。在本文中,我们担心模型真实性的提高可能以这些一般能力的显著退化为代价,这不利于LLM的可持续发展。系统地,我们通过评估四种流行的编辑方法对八个代表性任务类别的两个LLM进行副作用分析。大量的实证研究表明,模型编辑确实提高了模型的真实性,但代价是大大削弱了一般能力。因此,我们主张进行更多的研究,以最大限度地减少LLM预训练期间获得的一般能力的损失,并最终在模型编辑期间保留这些能力。
1 引言
2 相关工作
3 前言
4 方法
5 实验
6 结果与分析
7 结论与讨论
模型升级技术的快速发展一直在催化更先进、更值得信赖的LLM的不断迭代。模型编辑是一种很有前途的方