本文是LLM系列文章,针对《The Hallucinations Leaderboard – An Open Effort to Measure Hallucinations in Large Language Models》的翻译。
摘要
大型语言模型 (LLM) 凭借其理解和生成类人文本的非凡能力,改变了自然语言处理 (NLP) 的格局。然而,这些模型容易出现 “幻觉”——与事实现实或输入上下文不一致的输出。本文介绍了幻觉排行榜,这是一项开放的计划,用于定量测量和比较每个模型产生幻觉的趋势。排行榜使用一套全面的基准,重点关注幻觉的不同方面,例如事实和忠实度,涵盖各种任务,包括问答、总结和阅读理解。我们的分析提供了对不同模型性能的见解,指导研究人员和从业者为其应用程序选择最可靠的模型。

订阅专栏 解锁全文
381

被折叠的 条评论
为什么被折叠?



