提升语言模型推理一致性的新技术
2025-09-24T23:16:14+08:00
提升语言模型推理一致性的新技术
在今年的ACL会议上,某中心研究人员因提出改进思维链推理一致性的方法获得杰出论文奖。该方法在教师模型中使用对比解码进行知识蒸馏,在学生模型中采用反事实推理训练。
研究背景
教导大语言模型进行推理是自然语言处理的热门研究方向。思维链范式要求模型不仅回答问题,还需提供推理依据。但由于模型存在幻觉问题,生成的依据可能与答案不一致。
核心技术
知识蒸馏框架
采用师生模型架构:教师模型为训练集中的问题答案对生成依据,学生模型学习同时回答问题并提供依据。
对比解码技术
在教师模型生成依据时,对真实答案和扰动答案分别生成依据,选择对真实答案概率高、对错误答案概率低的词汇,确保依据与答案特异性关联。
反事实推理训练
通过随机替换问题答案对中的答案生成反事实训练数据,学生模型根据问题和依据生成对应答案。“事实”和”反事实”标签帮助模型区分任务目标。
实验结果
人类评估显示,使用错误答案的对比解码生成的依据在支持答案方面得分最高(0.63),显著优于贪婪解码(0.48)。泄漏调整模拟度指标表明,结合对比解码和反事实推理的方法在所有基线模型中表现最优。
技术优势
该方法有效解决了以下问题: - 减少教师模型生成的空洞依据(42%)和无关依据(37%) - 打破学生模型通过输入问题表面特征直接猜测答案的推理捷径 - 保持下游任务准确性的同时提升推理过程的可解释性
该方法为构建更可靠的可解释AI系统提供了重要技术支撑。

被折叠的 条评论
为什么被折叠?



