
文章主要内容
本文针对自动语音识别(ASR)纠错任务,提出了一种基于大语言模型(LLM)的三阶段可靠纠错框架 RLLMCF(Reliable LLM Correction Framework),旨在解决直接使用LLM时的幻觉问题(Hallucinations)——即LLM可能错误修改正确文本或生成无关内容。
- 三阶段框架:
- 错误预检测:先判断输入文本是否存在错误,避免LLM修改正确内容。
- 链式思维子任务迭代纠正:将纠错分解为定位错误、生成发音候选、筛选等子任务,通过多轮迭代和置信度评估约束LLM输出空间。
- 推理过程验证:检查LLM输出是否符合格式要求和推理逻辑,拒绝不合理修正。
- 实验结果:在AISHELL-1、AISHELL-2和Librispeech数据集上,使用GPT-4o模型时,CER/WER相对降低9%-21%,显著提升纠错可靠性,且无需额外数据或模型微调。
文章创新点
- 抗幻觉机制:通过
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



