文章介绍大语言模型常见错误类型(偏见、毒性、知识错误)及其修正方法,重点阐述模型编辑技术。相比传统重新预训练和微调,模型编辑通过局部修改参数,能快速精准修正特定知识点错误,同时保持模型其他能力。文章详解模型编辑五大性质(准确性、泛化性、可迁移性、局部性、高效性)及外部拓展法和内部修改法两大类经典方法,为解决大语言模型错误提供新思路。
大语言模型有时候会给出一些不理想的答案,比如带有偏见、毒性或者知识错误。
- 偏见:模型输出带有刻板印象或不公平的观点。
- 毒性:模型输出带有攻击性或有害内容。
- 知识错误:模型给出的答案与事实不符。比如有人问“斑马的皮肤是什么颜色?”,模型回答“肉色”,但实际上是黑白色,这就是知识错误。
如果这些问题不纠正,就可能误导使用者。目前常见的两种修正方法是:
-
重新预训练:用干净、正确的数据重新训练模型,从根本上修复问题。但这需要大量的数据清洗和巨大的算力成本,而且知识更新很快,数据也不可能一直完美。
-
微调:在现有模型上,针对错误进行参数调整。虽然成本比重新预训练低,但容易出现过拟合或遗忘旧知识的问题,也很难仅靠少量数据解决偏见和错误。
-
模型编辑:模型编辑指的是对已经训练好的大语言模型(或其他神经网络模型)进行局部修改或更新,以修正错误、补充新知识或改变特定行为,而不需要重新从头训练整个模型。
可以把它理解为给模型“打补丁”或“升级技能”,主要目标是让模型在特定问题上输出正确答案,同时尽量不影响其他已有能力


1 模型编辑思想
在《三体 2:黑暗森林》中,面壁者希恩斯和他的妻子共同研发了一种名为“思想钢印”的设备,目的是向太空军灌输“人类必胜”的坚定信念。这个机器的原理是让接受者在接触到特定信息时,修改大脑处理过程,使之输出正向答案。模型编辑的思想大致与此相似,旨在通过增加或修改模型参数,快速有效地改变模型行为和输出。
模型的学习过程其实和人类学习很像。
- 预训练可以类比为我们在日常生活中不断接触各种知识,逐渐建立起完整的知识体系。
- 微调就像我们在某个学科上进行深入学习,提升在特定领域的能力。
- 模型编辑则好比我们在交流中发现自己理解有误,通过讨论及时修正对某个知识点的错误认知。
这些方式都能用来“纠正大语言模型”。不同于预训练和微调,模型编辑更强调快速、精准地修正模型在某些具体知识点上的错误。
2 模型编辑定义
模型编辑的目标可被归纳为:修正大语言模型使其输出期望结果,同时不影响其他无关输出。
实际的模型编辑过程远比理论定义复杂。这主要源于知识的内在关联性:当修改模型对某一特定知识点的认知时,由于该知识点可能与其它知识点相关联,所以可能会影响模型对其它相关知识点的理解,从而产生” 牵一发而动全身”的效应。因此,如何精确控制模型编辑的范围成为一个关键挑战。精准可控的模型编辑技术需要满足一系列性质。这些性质不仅反映了模型编辑的复杂性,也为评估和改进编辑方法提供了重要指标。接下来对模型编辑的关键性质进行介绍。

3 模型编辑性质
模型编辑的首要目标是纠正模型的错误回答,使其给出我们期望的答案。在此基础上,考虑到知识的内在关联性,需要进一步精准控制模型编辑的范围。除此之外,还要保证模型编辑的效率。因此,需要从多个方面控制模型编辑过程。

在评价模型编辑方法时,通常会从五个方面来衡量:
1. 准确性
准确性衡量编辑是否真正修正了目标知识点。比如,若我们要修正“斑马的皮肤是什么颜色?”这个问题,编辑后的模型能正确回答“黑色”,就说明编辑是准确的。准确性是最基本的要求,只有保证了这一点,才能谈其他指标。
2. 泛化性
泛化性关注模型能否把修正过的知识应用到不同表述的同类问题上。比如,除了“斑马的皮肤是什么颜色?”,模型还要能正确回答“剃毛后的斑马是什么颜色?”、“斑马的肤色是什么?”等语义相近的问题。如果这些问题的答案都一致,说明模型具有良好的泛化性。
3. 可迁移性
可迁移性是指模型能否把修正后的知识推广到相关但不完全相同的问题上。比如,“皮肤是黑色的马叫什么?”(反向问题)、“斑马皮肤颜色和毛发一样吗?”(推理问题)、“黑白条纹的马皮肤是什么颜色?”(实体替换问题)。这些问题虽然与“斑马皮肤颜色”有关,但答案并不是“黑色”。若模型能正确作答,说明具备较强的可迁移性。
4. 局部性
局部性要求编辑仅影响目标知识点,而不干扰其他无关问题。比如,编辑后模型仍然要能正确回答“赤兔马的皮肤是什么颜色?”、“斑马吃什么?”等和知识点无关的问题。保持局部性可以避免“牵一发而动全身”的副作用。
5. 高效性
高效性强调编辑所需的时间和资源成本。在实际应用中,模型可能需要频繁更新和修正,因此编辑过程必须快速且节省资源。有的方法支持批量并行编辑,有的方法则需要逐个处理。高效性直接决定了方法能否大规模应用。
综合来看,一个理想的模型编辑方法,应该在保证准确性的前提下,尽可能提升泛化性、可迁移性和局部性,同时保持高效,才能真正兼顾实用性和可靠性。
4 模型编辑经典方法
在冒险游戏里,勇者升级可以有两种方式:
- 外部改造:通过购买新的装备和道具,获得额外的能力,同时保留原有技能。
- 内部改造:通过锻炼自身,提升智力、体力、法力等属性,从而在本质上变得更强。
如果把大语言模型类比为游戏中的勇者,那么模型编辑就像是它的升级方式,也可以从这两个角度来理解。模型编辑方法大致分为:
- 外部拓展法:设计额外的训练机制,让模型在保持原有知识的基础上,学习和吸收新的信息。
- 内部修改法:直接调整模型内部的某些层或神经元,实现对输出的精确控制。
如图所示,外部拓展法主要包括知识缓存法和附加参数法;内部修改法则包括元学习法和定位编辑法。

外部拓展法
外部拓展法的核心思路,是把新知识存放在外部组件里(比如额外参数或知识库),再和原始模型一起使用。这样既能保存原有知识,又能快速补充新信息,而且不用改动原始模型的参数,比较安全。根据外部组件是否直接参与推理过程,可以分为两类:知识缓存法和附加参数法。
- 知识缓存法:相当于给模型准备一本“技能书”。需要时,模型先判断问题是否和缓存里的知识相关,如果相关,就从缓存里取出答案,结合输入一起推理;不相关的问题仍由原始模型回答。缓存里的知识可以用三种方式存储:
- 事实知识(问答对,适合明确的问题);
- 自然语言补丁(If…then…,类似提示词,便于修改和删除);
- 正则表达式(通过文本匹配修改,但灵活性差,现在很少用)。
知识缓存法的好处是高效、简单,但缺点是新知识并没有真正融入模型,而是“外挂”式存在。为此,才有了进一步的附加参数法来改进。

内部修改法
内部修改法与外部拓展法不同,它不依赖额外的存储空间,而是直接修改模型自身的内部参数,把新知识“写进”模型中。这样不仅能提升模型在特定任务上的表现,还能增强模型的自我学习和适应能力。内部修改法主要分为两类:元学习法和定位编辑法。
1. 元学习法
元学习的核心思想是“学习如何学习”。在模型编辑中,它被扩展为“学习如何编辑”。具体来说,模型会从大量编辑任务中提取出一些通用的规律,这些规律被称为元知识。有了元知识,模型在遇到新的编辑任务时,只需要少量样本就能快速完成修正。

元知识可以以不同形式存在,比如:
- 优化器参数:通过优化器学习如何更高效地更新参数,但这种方法在大模型上开销较大;
- 超网络:利用一个额外的网络来预测参数更新值,同时保证准确性和局部性;
- 梯度低秩分解:将复杂的梯度更新分解为更小的部分,再由超网络生成修正值,从而以更低成本完成编辑。
总结来说,元学习法的优点是能快速适应新任务,节省计算资源;缺点是训练过程复杂,在大规模模型上依然面临高成本和不稳定性问题。
2. 定位编辑法
与元学习法不同,定位编辑法只修改模型中与目标知识最相关的局部参数,而不是全局参数。它的关键是先找到知识在模型中的存储位置,再进行针对性修改。

研究发现,大语言模型中的前馈网络(FFN)像一个键值存储体:
- Key(键)用来表示输入语境的特征(如句子前缀);
- Value(值)对应下一个词的预测结果。
也就是说,模型就是通过键值匹配来“记忆”知识的。
基于这一点,研究者提出了多种方法:
- KN (知识神经元):把前馈网络中的中间神经元视为“知识单元”,通过分析神经元对某个知识点预测的贡献,找到关键神经元并直接修改,从而完成编辑。
- ROME:通过因果跟踪实验进一步验证了知识存储机制,并提出直接更新整个前馈模块的参数,而不仅仅是单个神经元。这种方法在准确性、泛化性和局部性上表现都很好。
- MEMIT:在 ROME 的基础上扩展,可以一次性对成千上万条知识进行大规模编辑。
总结:定位编辑法能够在保持模型整体性能的同时,对特定知识点进行精准修改。它兼顾准确性、泛化性和局部性,目前是大语言模型编辑研究中非常有前景的一类方法。
我们如何系统学习掌握AI大模型?
AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。
学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。
这里给大家精心整理了一份
全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享!

1. 成长路线图&学习规划
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。
这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。

2. 大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)

3. 大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。

4. 大模型行业报告
行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

5. 大模型项目实战
学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

6. 大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以
微信扫描下方优快云官方认证二维码,免费领取【保证100%免费】

427

被折叠的 条评论
为什么被折叠?



