新工具与数据集助力大语言模型幻觉检测
大语言模型(LLMs)虽能力卓越,却存在“幻觉”问题——生成看似合理但事实错误的断言。某些幻觉极为细微,例如日期误差仅一两年。
为检测此类细微幻觉,某机构推出RefChecker,包含新型幻觉检测框架和基准数据集。与以往基于句子或短语的检测方法不同,RefChecker采用知识三元组(<主体, 谓词, 客体>结构,类似知识图谱)表征事实,可对LLM输出进行更精细的评估。
基准数据集特点
- 三种场景:
- 零上下文:LLM无参考文本直接生成答案(100例);
- 噪声上下文:提供可能含错误信息的检索文档(RAG场景,100例);
- 精确上下文:提供单一准确文档(100例)。
检测方法创新
- 参考来源:支持三种任务设置(开放问答、检索增强生成、摘要生成),数据源自NaturalQuestions、MS MARCO等公开集。
- 评估粒度:将响应分解为知识三元组,例如句子“Richard Mulligan在《The Partridge Family》中饰演Mr. Kincaid”可拆解为:
<Richard Mulligan, 饰演角色, Mr. Kincaid><Mr. Kincaid, 所属作品, The Partridge Family>
- 声明分类:

最低0.47元/天 解锁文章
2109

被折叠的 条评论
为什么被折叠?



