The Dawn After the Dark: An Empirical Study on Factuality Hallucination in Large Language Models

828 篇文章

已下架不支持订阅

本文深入探讨大型语言模型(LLM)的幻觉问题,包括如何检测、产生的原因以及缓解策略。研究建立了HaluEval 2.0幻觉基准,并通过自动检测方法分析LLM在预训练、微调、RLHF和推理阶段的幻觉来源。实验评估了多种缓解技术,并揭示了幻觉现象的关键洞察。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《The Dawn After the Dark: An Empirical Study on Factuality Hallucination in Large Language Models》的翻译。

摘要

在大型语言模型(LLM)时代,幻觉(即生成事实上不正确内容的趋势)对LLM在现实世界应用中的可信和可靠部署提出了巨大挑战。为了解决LLM幻觉,应该好好研究三个关键问题:如何检测幻觉(检测),LLM为什么会产生幻觉(来源),以及如何减轻幻觉(缓解)。为了应对这些挑战,本工作对LLM幻觉进行了系统的实证研究,重点关注幻觉检测、来源和缓解三个方面。特别地,我们构建了一个新的幻觉基准HaluEval 2.0,并设计了一种简单有效的LLM幻觉检测方法。此外,我们深入研究了LLM的不同训练或使用阶段,并广泛分析了导致LLM幻觉的潜在因素。最后,我们实现并检查了一系列广泛使用的技术,以减轻LLM中的幻觉。我们的工作已经导致了几个重要的发现,以了解幻觉的起源并减轻LLM中的幻觉。我们的代码和数据可以访问https://github.com/RUCAIBox/HaluEval-2.0

1 引言

2 LLMs中的幻觉

3 实验设置

4 幻觉检测

5 幻觉来源

<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值