解决RAG的噪声与浅层推理:DeepSieve的模块化信息筛分新范式
一、技术解决的问题以及简介
大模型推理的挑战
静态知识局限:预训练模型参数固定,难以实时获取最新信息,易产生“幻觉”。
多跳推理难题:复杂查询常包含多个依赖子目标,单次检索或一次性提示难以准确解决。
技术简介
DeepSieve是一个创新的RAG框架,通过将大型语言模型(LLM)作为"知识路由器",解决了传统RAG方法在处理复杂多跳查询和异构知识源时的精度与效率难题。该框架采用模块化设计,将查询分解、知识路由、执行与反思、答案融合四个阶段解耦,使LLM能够像人类专家一样进行规划、调度和纠错,从而在保持高精度的同时显著降低Token消耗。
二、核心理念与理论基础
2.1 模型无关(Model-Free)推理
- 定义:不对底层模型进行微调,而通过提示与工具调用实现推理能力提升。优势在于兼容性与部署便利。
2.2 LLM 作为智能体(Agent)
- 思考-行动循环:交替输出“Thought”与“Action”,并根据工具反馈调整后续思考。
- 自我反思(Reflexion):在获取失败反馈后,分析原因,重新规划行动。
2.3 通用推理架构设计原则
- 模块化:分解、路由、反思、融合各司其职,可替换与扩展。
- 可组合:支持多种异构知识源,包括文本检索、数据库查询、API 调用等。
- 透明性:流程清晰、易于调试与监控。
三、DeepSieve 框架详解
整个框架分为四大阶段:查询分解 → 知识路由 → 观察反思 → 答案融合。
3.1 阶段 I:查询分解(Decomposition)
- 目标:将复杂的原始查询 Q Q Q 分解为一组逻辑清晰、结构化的子查询 { q 1 , q 2 , … , q n } \{q_1, q_2, \dots, q_n\} { q1,q2,…,q

最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



