前言
在大型语言模型(LLM)日益普及的今天,检索增强生成(Retrieval-Augmented Generation,RAG)已成为提升 LLM 知识准确性和时效性的关键技术。它通过将 LLM 与外部知识库相结合,有效解决了 LLM 知识滞后和“幻觉”等问题。
然而,RAG 技术本身也在不断演进。从最初的传统 RAG 结构,到如今备受关注的 Agentic RAG(智能体式 RAG),RAG 系统正变得越来越智能、灵活和强大。本文将深入对比这两种 RAG 范式,揭示 Agentic RAG 如何通过引入“智能体”的概念,将 RAG 系统推向一个全新的高度。
— 1 传统 RAG —
线性、简洁与效率的“检索-生成”流程
一、传统 RAG 结构:简洁与效率

让我们首先回顾一下传统的 RAG 结构。如图所示,传统 RAG 的核心在于其线性、高效的“检索-生成”流程。
传统 RAG 的工作流程:
-
知识库编码与索引(步骤 1 & 2):
额外文档(Additional documents)首先通过嵌入模型(Embedding model)进行编码(Encode),将其内容转化为高维向量。这些向量随后被索引(Index)并存储到向量数据库(Vector database)中。这个过程通常是离线完成的,为后续的检索做好准备。
-
查询编码(步骤 3):
当用户输入一个查询(Query)时,这个查询也会通过相同的嵌入模型进行编码(Encode),生成其对应的查询向量。
-
相似性搜索(步骤 4 & 5):
查询向量被用来在向量数据库中进行相似性搜索(Similarity search),以找到与查询语义最接近的相似文档(Similar documents)。
-
提示构建与生成(步骤 6 & 7):
检索到的相似文档作为上下文(Context),与原始查询一起,被整合为一个提示(Prompt)。
这个提示被发送给大型语言模型(LLM)。
LLM 基于提供的上下文和查询生成最终的响应(Response)。
传统 RAG 的特点:
- 优点: 结构简单、流程清晰、易于实现,在处理直接、单跳的问答任务时效率高。
- 局限性: 线性流程使其在处理复杂、模糊或需要多步推理的查询时显得力不从心。它缺乏自我评估和主动规划的能力,容易受到检索结果质量的直接影响,可能导致“幻觉”或不准确的回答。
— 2 Agentic RAG —
***智能体驱动的未来:***循环、决策和工具使用的特性

相较于传统 RAG 的线性流程,Agentic RAG 引入了“智能体”(Agent)的概念,赋予 LLM 更高的自主性和决策能力。如图所示,Agentic RAG 的核心在于其循环、决策和工具使用的特性。
Agentic RAG 的工作流程:
-
智能体主导的查询处理(步骤 1-3):
查询重写与思考: 初始查询不再直接进入检索,而是首先由 LLM 智能体(LLM Agent)进行重写,将其转化为更精确的查询。随后,智能体进行自我评估,判断是否需要更多信息。这是智能体主动思考的体现。
-
主动规划与工具选择(步骤 4-6):
如果智能体判断需要更多信息,它会进一步思考“哪一个源头能帮我?”,并主动选择并调用不同的工具(Tools & APIs)。这些工具不再局限于向量数据库,还可以包括互联网搜索、结构化数据库或其他自定义 API。这种工具使用能力是 Agentic RAG 的重要特征。
-
检索与生成(步骤 7-9):
检索与上下文构建(步骤 7): 系统会利用智能体选择的工具进行检索,并得到相关的检索到的上下文(Retrieved context)。这个上下文会与更新后的查询一起,为生成答案做准备。
生成初步响应(步骤 8 & 9): 系统将
检索到的上下文和更新后的查询打包成一个提示(Prompt),发送给一个大型语言模型(LLM)。LLM 基于这个提示生成一个初步响应(Response)。 -
循环迭代与自我评估(步骤 10-12):
自我评估: 拿到初步响应后,LLM 智能体不会直接返回答案,而是会进行自我评估:“这个答案相关吗?”。
反馈循环: 如果智能体判断答案不相关,它可以循环回到初始查询或之前的步骤,重新规划、重新检索,直到找到满意的答案。这种反馈循环和自我修正能力是 Agentic RAG 解决复杂问题的关键。
Agentic RAG 的特点:
-
优点:
-
- 更强的推理能力: 能够处理多跳查询和复杂逻辑推理。
- 更高的准确性: 通过自我评估和迭代,减少“幻觉”和不准确的回答。
- 更强的适应性: 能够根据任务需求,灵活选择和使用不同的外部工具。
- 更好的可解释性: 智能体的“思考”过程(如查询重写、工具选择)可以被记录和追踪。
-
局限性:
-
- 更高的复杂性: 引入了更多的决策和循环,系统设计和调试难度增加。
- 潜在的延迟: 多次迭代和工具调用可能导致更高的响应延迟。
— 3 汇总分析 —
传统 RAG 和 Agentic RAG 之间的主要区别
下表总结了传统 RAG 和 Agentic RAG 之间的主要区别:
| 特性 | 传统 RAG | Agentic RAG |
|---|---|---|
| LLM 角色 | 被动的内容消费者,执行检索和生成 | 主动思考、规划、决策和执行的“智能体” |
| 流程 | 线性、单向 | 循环、迭代、包含决策点 |
| 工具使用 | 主要依赖向量数据库进行检索 | 可灵活选择和调用多种外部工具(向量数据库、互联网、API 等) |
| 复杂查询 | 难以处理多跳、模糊或需推理的查询 | 擅长处理复杂、多跳和需要多步推理的查询 |
| 自我评估 | 无 | 有(如判断是否需要更多细节、答案是否相关) |
| 错误处理 | 容易将检索错误传递给生成环节 | 可通过反馈循环进行自我修正 |
| 实现难度 | 相对简单 | 相对复杂 |
总结
传统 RAG 为我们打开了 LLM 与外部知识结合的大门,它在许多场景下依然高效且实用。然而,随着 AI 应用的日益复杂,Agentic RAG 代表了 RAG 技术发展的必然趋势。它将 LLM 从一个简单的“生成器”提升为能够自主思考、规划和执行的“智能体”,从而构建出更强大、更可靠、更接近人类智能的知识型 AI 系统。理解并掌握 Agentic RAG 的核心思想,将是构建未来高阶 AI 应用的关键。
最后
为什么要学AI大模型
当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!
DeepSeek问世以来,生成式AI和大模型技术爆发式增长,让很多岗位重新成了炙手可热的新星,岗位薪资远超很多后端岗位,在程序员中稳居前列。

与此同时AI与各行各业深度融合,飞速发展,成为炙手可热的新风口,企业非常需要了解AI、懂AI、会用AI的员工,纷纷开出高薪招聘AI大模型相关岗位。

最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,我特别拜托北京清华大学学士和美国加州理工学院博士学位的鲁为民老师给大家这里给大家准备了一份涵盖了AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频 全系列的学习资料,这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】
AI大模型系统学习路线
在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。

但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。
AI大模型入门到实战的视频教程+项目包
看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

海量AI大模型必读的经典书籍(PDF)
阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。

600+AI大模型报告(实时更新)
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

AI大模型面试真题+答案解析
我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下


这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】
500

被折叠的 条评论
为什么被折叠?



