- 博客(2)
- 收藏
- 关注
原创 【论文精读】How Language Model Hallucinations Can Snowball
文章研究了语言模型(LMs)在实际应用中产生的幻觉现象,同时发现了所谓的幻觉雪崩,即当模型给出错误答案后,大模型将继续为其辩解并生成新的错误解释,但如果单独开启对话框,大模型是能够发现自己回答是错误的。作者研究后发现幻觉不仅仅是由于大模型对知识的不足,还有可能是为了维护上下文一致性的原则,导致模型有时在识别错误后仍然继续生成错误的推理。文章实验表明,GPT-3.5、GPT-4和LLaMA-2-70B-chat模型在给出错误答案后,能够识别并修正这些错误,但幻觉雪崩现象依然存在。
2025-06-01 17:24:17
841
原创 【论文精读】Mitigating Large Language Model Hallucinations via Autonomous Knowledge Graph-Based Retrofitti
将知识图谱中的事实知识融入大语言模型(LLMs)被认为是缓解幻觉现象的有效途径。然而,现有方法多依赖用户输入的问题进行知识检索,无法识别和纠正模型在推理过程中生成的错误信息。为此,本文提出一种基于知识图谱的自动修正方法(KGR),通过多步流程验证并修正语言模型生成的草稿回答。该方法由语言模型自动完成主张提取、实体识别、事实检索、一致性验证与回答改写等任务,无需人工干预。
2025-06-01 17:24:13
916
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅