本文是LLM系列文章,针对《Unsupervised Real-Time Hallucination Detection based on the Internal States of Large Language Models》的翻译。
摘要
大型语言模型中的幻觉是指大型语言模型产生连贯但事实上不准确的反应的现象。这一问题破坏了LLM在实际应用中的有效性,因此需要研究检测和减轻LLM的幻觉。先前的研究主要集中在幻觉检测的后处理技术上,由于与LLM的推理过程分离,这些技术往往计算密集,有效性有限。为了克服这些限制,我们引入了MIND,这是一种无监督的训练框架,它利用LLM的内部状态进行实时幻觉检测,而不需要手动注释。此外,我们还介绍了HELM,这是一种评估多个LLM幻觉检测的新基准,具有不同的LLM输出和LLM在推理过程中的内部状态。我们的实验表明,MIND在幻觉检测方面优于现有的最先进的方法。