On Large Language Models’ Hallucination with Regard to Known Facts

本文是LLM系列文章,针对《On Large Language Models’ Hallucination with Regard to Known Facts》的翻译。

论大型语言模型对已知事实的幻觉

摘要

大型语言模型可以成功地回答事实问题,但也容易产生幻觉。我们从推理动力学的角度研究了LLM拥有正确答案知识但仍产生幻觉的现象,这是以前幻觉研究中没有涉及的领域。我们能够通过两个关键思想进行分析。首先,我们确定了质疑相同三重知识但导致不同答案的事实问题。因此,正确和不正确输出的模型行为之间的差异表明了幻觉发生时的模式。其次,为了测量模式,我们利用从残差流到词汇空间的映射。我们揭示了在正确和幻觉的情况下,输出token概率沿着层的深度的不同动态。在幻觉的情况下,输出token的信息很少在模型的后期表现出突然增加和一致的优势。利用动态曲线作为一个特征,我们构建了一个能够准确检测幻觉预测的分类器,成功率为88%。我们的研究有助于根据LLM的已知事实来理解LLM产生幻觉的原因,更重要的是,准确预测LLM何时产生幻觉。

1 引言

2 相关工作

3 实验设置

4 结果

5 结论

我们分析了LLM对已知事实产生幻觉的场景。使用基于三元组知识的数据集,我们对模型在各种输出中的推理动力学进行了比较观察。我们证明幻觉的原因在于事实回忆的失败。失败可能是由于主题解析中的偏见,导致在更高级别上提取不充分的对象相关信息。然后,这些信息与幻觉信

<think>好的,我需要处理用户关于“幻觉例子”的查询。首先,用户引用了三个参考资料,其中提到Prompt注入、元缓冲区的影响以及数据过滤。我需要先理解这些引用是否与幻觉相关。 幻觉在AI中通常指模型生成不准确或虚构的内容。用户要求计算机科学或AI中的例子。我需要结合提供的引用内容来举例。 引用[1]关于Prompt注入,用户可能通过输入绕过指令,导致模型输出错误信息,这可能引发幻觉。比如,如果用户注入误导性提示,模型可能生成不符合事实的回应。 引用[2]提到元缓冲区禁用导致性能下降,特别是在复杂任务中。这可能说明元缓冲区帮助模型维持连贯性,避免生成混乱或错误的内容,即减少幻觉。 引用[3]讨论数据量对模型学习常识的影响。数据不足可能导致模型缺乏知识,生成不准确内容,这也是幻觉的一种情况。例如,训练数据不足时,模型可能编造事实。 接下来,我需要生成相关问题,符合用户的要求。问题应围绕幻觉的原因、预防措施、影响以及与其他概念的区别。 最后,确保回答结构清晰,正确使用LaTeX格式,引用标记自然。检查是否有遗漏的引用点,并保持回答简洁易懂。</think>在计算机科学和人工智能领域,“幻觉”(Hallucination)通常指模型生成看似合理但实际错误或虚构的内容。以下是几个典型例子及相关分析: ### 1. **语言模型生成虚假事实** 例如,当被问及“爱因斯坦如何发明量子计算机?”时,模型可能编造看似专业但完全失实的回答,如“爱因斯坦在1927年通过量子纠缠实验设计了首个量子计算机原型”[^3]。这种现象源于训练数据中的噪声或知识缺失。 数学上,语言模型的生成过程可表示为条件概率: $$ P(y|x) = \prod_{t=1}^T P(w_t|w_{<t},x) $$ 当模型对特定领域$w_t$的条件概率估计不准确时,容易产生幻觉。 ### 2. **图像生成中的异常物体** 在生成对抗网络(GAN)生成的图片中,可能出现违反物理规律的细节,例如: - 人物有六根手指 - 建筑物窗户的透视关系错乱 - 文本生成中出现乱码符号 这类问题与损失函数的局部最优解相关: $$ \min_G \max_D V(D,G) = \mathbb{E}_{x\sim p_{data}}[\log D(x)] + \mathbb{E}_{z\sim p_z}[\log(1-D(G(z)))] $$ 当判别器$D$无法准确识别细节异常时,生成器$G$会保留错误特征[^2]。 ### 3. **自动编程中的逻辑错误** 代码生成模型可能输出语法正确但逻辑错误的程序,例如: ```python # 本应计算斐波那契数列,却错误地返回阶乘 def fibonacci(n): if n <= 1: return n else: return n * fibonacci(n-1) ``` 这种幻觉源于模型未能准确捕捉算法语义[^1]。 ### 4. **多模态系统的认知偏差** 如图像描述系统可能将“拿着网球拍的人”错误描述为“棒球运动员”,这种跨模态关联错误反映了潜在空间对齐的偏差: $$ \text{CLIP}(I,T) = \frac{\exp(\text{sim}(f_I(I), f_T(T))/ \tau)}{\sum_{j=1}^K \exp(\text{sim}(f_I(I), f_T(T_j))/ \tau)} $$ 当视觉编码器$f_I$与文本编码器$f_T$的相似度计算存在偏差时,就会产生此类幻觉。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值