ReaRAG:教 AI 思考、搜索和自我纠正以获得事实准确答案(含git实现)

推理模型(LRMs)的发展取得了显著进展,展现出强大的推理能力,能在复杂任务中表现出色。然而,这些模型在多跳问答(QA)任务中仍面临挑战,主要归因于其对参数化知识的依赖,导致事实准确性受限。为解决这一问题,研究人员提出了ReaRAG(Knowledge-guided Reasoning Enhances Factuality of Large Reasoning Models with Iterative Retrieval Augmented Generation)模型,通过知识引导的推理和迭代检索增强机制,有效提升了大推理模型在多跳问答任务中的表现和事实性。

图片

一、推理模型的现状与挑战

像OpenAI的o1、Qwen的QwQ-32B、GLM-Zero-Preview和DeepSeekR1等大推理模型,在复杂任务中表现出令人瞩目的推理能力,能够在生成答案前进行深思熟虑的推理。但在多跳问答任务中,仅依靠参数化知识无法满足需求,因为这类任务往往需要超出模型记忆范围的知识进行推理。

检索增强生成(RAG)为提升LRMs的事实性提供了一种可行方案,它通过整合外部知识来增强模型的回答能力。但RAG在检索相关文档时面临挑战,需要精确制定搜索查询。以往的迭代检索策略虽构建了子查询和子答案的推理链来解决多跳问答,但存在错误传播问题,早期步骤的错误会误导后续检索和推理,降低最终答案的质量。例如,Search-o1采用基于提示的策略,利用LRM的推理能力迭代修正子查询,并引入了Reason-in-Documents模块生成子答案,但它存在特殊令牌生成不可靠、信息提取失败和幻觉、基于强化学习的LRMs过度思考等问题,限制了其在RAG任务中的性能。

二、ReaRAG模型的设计与实现

2.1 任务形式化

ReaRAG聚焦于多跳问答任务,其目标是构建知识引导的推理链,提高

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大模型之路

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值