幻觉侦探:小模型有大智慧

论文:https://arxiv.org/pdf/2406.11277

代码:https://github.com/RUCAIBox/HaluAgent

领域:agent、幻觉检测

机构:中国人民大学高瓴人工智能学院

发表/arxiv:arxiv

        该篇论文提出了HaluAgent框架,这是一个为小型语言模型(LLMs)设计的agent系统,它通过集成多功能工具箱和细粒度的三阶段检测流程(句子分割、工具选择与验证、反思),以及记忆机制,显著提升了这些模型在检测文本、代码和数学表达式中的幻觉现象的能力。该框架利用现有中英文数据集合成检测轨迹进行微调,使得经过少量样本(2K)训练的HaluAgent在多种任务和数据集上的幻觉检测性能达到或超越了依赖于强大闭源模型GPT-4的现有方法,展示了小型开源模型在经过适当训练后,也能在复杂的幻觉检测任务中表现出色。
        

摘要(Abstract)

  • 背景:大型语言模型(LLMs)在生成文本时可能会出现幻觉(hallucinations),即看似合理但实际上没有事实支持的内容。这对于LLMs在现实世界的应用构成了挑战。
  • 现有方法:现有研究依赖于强大的闭源LLMs(如GPT-4)进行幻觉检测。
  • HaluAgent:本文提出的HaluAgent框架允许相对较小的LLMs(例如Baichuan2-Chat 7B)主动选择适当的工具来检测多种类型的幻觉,如文本、代码和数学表达式。
  • 方法:HaluAgent集成了LLM、多功能工具箱,并设计了一个细粒度的三阶段检测框架以及记忆机制。
  • 实验:使用2000个样本对LLMs进行微调,HaluAgent在各种任务和数据集上进行幻觉检测,达到了与GPT-4相当的性能,甚至在某些情况下更高。

引言(Introduction)

  • LLMs的挑战:LLMs在自然语言处理领域展现出卓越能力,但生成文本中的幻觉问题仍是一个隐患。
  • 现有检测方法:分为两类,一类依赖于LLMs的内部知识,另一类通过使用外部工具(如搜索引擎)来扩展检测能力。

方法(Approach)

Figure 1提供了HaluAgent框架的概览,展示了其在幻觉检测流程中的关键组件和步骤。

  1. Fine-tuning & Detection Overview (上半部分): 这部分展示了使用高质量检测轨迹数据对开源模型进行微调的过程,以及HaluAgent检测幻觉的流程。

    • High-quality Trajectory Data
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

OptimaAI

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值