本文是LLM系列文章,针对《How Language Model Hallucinations Can Snowball》的翻译。
语言模型幻觉是如何产生雪球的
摘要
在实际应用中使用语言模型的一个主要风险是它们容易产生错误陈述的幻觉。幻觉通常归因于LMs中的知识差距,但我们假设,在某些情况下,当证明先前产生的幻觉时,LMs会输出他们可以单独识别为不正确的虚假声明。我们构建了三个问答数据集,其中ChatGPT和GPT-4经常陈述错误的答案,并提供至少一个错误声明的解释。至关重要的是,我们发现ChatGPT和GPT-4可以分别识别67%和87%的错误。我们将这种现象称为幻觉滚雪球:LM过度犯早期错误,导致更多错误,否则就不会犯。
1 引言
2 为什么我们期待幻觉像滚雪球一样越滚越大?
3 实验
4 我们能防止雪球幻觉吗?
5 相关工作
6 结论
我们定义了幻觉滚雪球的现象,并从最先进的模型中证明了它在生成中的普遍性,从而导致了基于简单事实的幻觉,否则这些幻觉是不会发生的。我们的研究结果指出,训练语言模型的风险在于,以牺牲真实性为代价,不加区分地优先考虑流利性和连贯性,我们鼓励未来的工作研究模型开发各个层面的补救措施。
局限性
我们关注的是英语问答中的幻觉滚雪球,而不是在其他任务中探索它,比如摘要或代码生成。
此外,我们只在两个专有模型上进行实验,即ChatGPT和GPT-4,因为它们在许多基准测试上具有最先进的性能。由于这些模型的API的限制,
本文探讨了语言模型如ChatGPT和GPT-4在问答中如何产生并放大错误(幻觉滚雪球)的现象。研究发现,模型能识别到高达87%的自身错误,但依然会输出错误信息。这一问题强调了在追求流畅性和连贯性时,可能牺牲了真实性的风险。未来工作应探索减轻此类幻觉的方法。
已下架不支持订阅
132

被折叠的 条评论
为什么被折叠?



