DeepRAG: Thinking to Retrieval Step by Step for Large Language Models

本文是LLM系列文章,针对《DeepRAG: Thinking to Retrieval Step by Step for Large Language Models》的翻译。

DeepRAG:大型语言模型逐步检索的思考

摘要

大型语言模型(LLMs)在推理方面表现出了巨大的潜力,但由于参数知识的及时性、准确性和覆盖范围,它们仍然存在严重的事实幻觉。同时,由于无效的任务分解和冗余检索,将推理与检索增强生成(RAG)集成仍然具有挑战性,这可能会引入噪声并降低响应质量。在本文中,我们提出了DeepRAG,这是一个将检索增强推理建模为马尔可夫决策过程(MDP)的框架,实现了战略性和自适应检索。通过迭代分解查询,DeepRAG在每一步都动态地确定是检索外部知识还是依赖参数推理。实验表明,DeepRAG提高了检索效率,同时将答案准确率提高了21.99%,证明了其在优化检索增强推理方面的有效性。

1 引言

<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值