提升语言模型推理一致性的新技术
在今年ACL会议上,某中心研究人员因展示使用教师模型对比解码和学生模型反事实推理的知识蒸馏方法,可改进"思维链"推理的一致性而获得杰出论文奖。
研究背景
教导大型语言模型(LLM)进行推理是自然语言处理领域的热点研究方向。流行的方法是思维链范式,即模型不仅回答问题,还提供答案的推理依据。
然而由于LLM存在幻觉倾向(即做出虚假事实断言),生成的推理依据可能与预测答案不一致,导致其不可信。在某中心提交给ACL的论文中,研究人员通过知识蒸馏提升思维链推理的一致性:给定训练集中的问题-答案对,LLM(“教师”)为较小的"学生"模型生成推理依据,学生模型学习同时回答问题并提供推理依据。
技术挑战
即使采用知识蒸馏(KD),仍需要应对教师生成虚假或空洞推理依据的可能性。在学生端,风险在于模型可能学会生成推理依据和答案,但未学会两者间的逻辑关系;例如可能绕过整个推理过程,学习问题与答案间的推断捷径。
在某领先LLM的研究中发现,42%的生成推理依据是空洞的,37%是无关的。
解决方案
对比解码
为抑制幻觉,在教师端采用对比解码,确保为真实断言生成的推理依据与为错误断言生成的推理依据尽可能不同。使用参数冻结的预训练LLM作为教师模型,通过上下文学习生成训练样本:提供少量问题、答案和人工标注推理依据的示例,最后给出问题-答案对,模型为最终对生成推理依据。
标准解码步骤无法保证生成推理依据能证明模型答案。通过对比解码,在不调整LLM参数的情况下控制解码过程:对真实答案和扰动答案分别执行上下文推理生成,解码真实对时选择对真实对概率高且对错误对概率低的词,使真实对的推理依据与错误对产生分歧。
实验考虑两种扰动类型:空答案和无答案。发现使用错误答案的对比解码始终比使用空答案产生更好的推理依据。
反事实推理
过去研究表明问答模型常利用训练数据中的捷径提升性能。类似地,思维链模型可能学习使用捷径回答问题,并将生成推理依据作为并行任务,而未学习两者关键联系。反事实推理训练的目标是打破这种捷径。
通过随机改变问题-答案对中的答案生成反事实训练数据,并生成相应推理依据。使用问题和推理依据作为输入训练学生模型,必须生成对应答案。这意味着学生模型在训练中可能多次看到相同问题但不同答案(和推理依据)。"事实"和"反事实"标签防止模型混淆任务。
实验评估
在四个推理任务数据集上,与使用普通知识蒸馏构建的思维链模型比较。请人工评审评估教师模型生成的推理依据。使用泄漏调整可模拟性(LAS)指标评估学生模型,该指标衡量模拟器(外部模型)从生成推理依据预测学生输出的能力。
实验显示:
- 使用对比解码的知识蒸馏始终优于三个基线
- 结合反事实推理和对比解码的知识蒸馏始终优于单独使用对比解码
- 在人工标注数据集上训练的模型在下游任务中准确率最高,但推理依据表现差
- 平均而言,新方法比使用贪婪解码训练的模型略更准确
人工评估表明,使用对比解码的上下文学习比贪婪解码产生更有说服力的推理依据:
| 教师模型 | 语法性 | 新信息 | 支持答案 |
|---|---|---|---|
| 贪婪解码 | 0.99 | 0.65 | 0.48 |
| 对比-空答案 | 0.97 | 0.77 | 0.58 |
| 对比-错误答案 | 0.97 | 0.82 | 0.63 |
结论
通过教师模型的对比解码和学生模型的反事实推理,某中心研究人员开发出能显著提升思维链推理一致性的方法,在减少幻觉的同时保持推理任务的准确性,为语言模型的可靠推理提供了新的技术路径。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
公众号二维码

3565

被折叠的 条评论
为什么被折叠?



