LLM
文章平均质量分 97
wavefly_liu
1.01^365=37.78
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
大模型幻觉研究(中):如何检测幻觉
本文研究了大语言模型(LLM)生成内容中的"幻觉"问题,即模型输出包含虚构或不准确信息的情况。文章将幻觉分为事实性幻觉和忠实性幻觉两类,并提出了三种检测方案:基于外部知识的RAG检测、基于LLM内置知识的检测,以及基于token概率分布的检测。重点介绍了FactScore方案,该方案通过将长文本分解为原子事实并逐一验证来评估真实性。文章还详细分析了原子事实分解的质量评估指标,包括原子率、准确率、覆盖率和冗余率,并提供了实现Prompt。原创 2025-07-25 12:00:00 · 1377 阅读 · 0 评论 -
大模型幻觉研究(上):数据质量和分布如何导致幻觉
摘要:本文探讨了大语言模型(LLM)的"幻觉"问题,即生成看似合理但不符合事实或偏离指令的内容。研究将幻觉分为两类:事实性幻觉(与真实世界不符)和忠实性幻觉(与指令/上下文不符)。分析表明,幻觉主要源于三大因素:训练数据质量(包括预训练、监督微调、强化学习数据)、模型训练过程(目标函数局限性)和推理机制。其中训练数据问题是导致幻觉的最主要原因。文章指出LLM训练目标仅关注统计拟合度而非内容真实性,导致模型可能生成虚构内容。后续研究将探讨幻觉检测与解决方案。(149字)原创 2025-07-23 22:13:56 · 1307 阅读 · 0 评论
分享