总目录 大模型安全相关研究:https://blog.youkuaiyun.com/WhiffeYF/article/details/142132328
Unsupervised Real-Time Hallucination Detection based on the Internal States of Large Language Models
https://www.doubao.com/chat/2890771455675394
https://arxiv.org/pdf/2403.06448
速览
这篇论文主要介绍了一种基于大语言模型(LLMs)内部状态的无监督实时幻觉检测框架MIND,还提出了一个新的评估基准HELM,用于评估多个大语言模型的幻觉检测能力。
- 研究背景:大语言模型在自然语言处理任务中表现出色,但会产生幻觉,即生成逻辑连贯但事实错误或有误导性的内容,影响其在实际应用中的效果,因此需要研究检测和减轻幻觉的方法。现有研究主要集中在事后处理技术