大语言模型(LLMs)在自然语言处理和文本生成方面取得了显著进展,但其依赖于静态训练数据的局限性限制了其在动态、实时查询中的表现。检索增强生成(RAG)系统通过结合外部数据检索机制来提高响应的相关性和时效性,但仍存在静态工作流和缺乏适应性等问题。随着技术的不断发展,为了满足更加复杂多变的应用场景需求,多种类型的 RAG 应运而生。那它们究竟是什么,又有着怎样的原理和优势呢?接下来将一一为你解读。
一、为什么需要多类型 RAG?
传统的 RAG 系统通过结合外部检索机制来增强 LLMs 的响应能力,从外部动态检索相关信息并将其纳入生成过程,克服大语言模型对静态预训练数据的依赖,实现上下文准确且最新的输出。然而,现实世界应用日益增长的复杂性,对上下文准确性、可扩展性和多步推理提出了更高要求,起初简单的基于关键词的检索已难以满足需求,于是促使了 RAG 系统向更复杂、更自适应的方向发展,需要多种类型的 RAG 来应对不同场景和任务的挑战 。例如在医疗、法律等领域,不仅需要准确的知识检索,还需要复杂的推理和上下文关联;在资源受限的设备上,则需要轻量化高效的 RAG 方案;对于动态变化的复杂任务,又需要具备自主决策和灵活调整策略的 RAG 系统。
但是,传统RAG在支持多类型数据源时存在一定的不足,比如:
一是大模型私有化部署过程中通常依赖于多种类型的外部数据源。 这些数据源可能具有不同的格式、标准和可靠性水平,例如PDF、平面文件、Markdown、CSV、网页内容、拓扑图、思维导图等等;
二是传统RAG在实施过程中还面临歧义查询或需要深入理解上下文的查询方面的困难。 传统RAG在设计上是将文档分块以便进行检索,然而这种方法忽略了这些块之间的上下文关系。如果意义或上下文跨越多个块,就很难准确回答复杂的问题。
这些问题是传统RAG技术设计天然短板,主要源于信息检索过程,但是该过程有时会忽略精确响应所需的细微差别。为了支持更广泛的外部数据,提升检索准确性,本文将继续探讨常用的其他RAG实现框架。
二、GraphRAG
1. 什么是GraphRAG
GraphRAG(Graph-based Retrieval-Augmented Generation)是一种结合知识图谱(Knowledge Graph)和检索增强生成技术的框架 。它利用图结构表达知识节点及其关系,将结构化知识(如知识图谱)与非结构化知识(如文档、网页)整合到生成任务中 ,通过知识检索获取相关信息后,利用图的连接性来扩展语义信息,并最终生成与上下文高度相关的答案 。其核心是将知识图谱的结构化关系嵌入到生成过程中 ,旨在通过结构化知识增强大型语言模型(LLM)的推理能力,解决传统 RAG 在复杂查询和多跳推理中的局限性 。
2. 工作原理
- 检索阶段:从外部知识库(如文档数据库或网络)中检索与输入问题相关的候选文档或片段 。同时查询知识图谱,找到与输入问题或候选文档关联的节点和关系 。例如,当用户询问 “糖尿病的治疗与饮食的关系”,系统会在文档库中搜索关于糖尿病治疗和饮食的相关文档,同时在知识图谱中定位糖尿病、治疗方法、饮食等相关节点及其关系。
- 图构建阶段:将检索到的信息(非结构化文本、知识图谱节点)构造成动态图结构 。节点表示检索到的实体、主题或文档片段 ,边表示实体之间的语义关系或推理路径 。比如将文档中提到的具体治疗药物作为一个节点,将其与糖尿病节点通过 “用于治疗” 的边连接起来,将饮食中的某类食物节点与糖尿病节点通过 “影响病情” 等边连接。
- 生成阶段:利用生成模型(如 Transformer)将动态图结构作为上下文,生成最终答案 。将图的拓扑信息编码为模型的输入特征,帮助捕获上下文中的复杂关系 。模型根据图中节点和边所呈现的关系,生成如 “糖尿病的药物治疗通常需要配合低糖、高纤维的饮食,因为某些食物成分可能影响药物疗效以及血糖的控制水平……” 这样的答案。
3. 技术优势
- 上下文的深度关联:通过知识图谱和非结构化文本结合,生成结果更加准确 。如在医疗问答中,能将患者描述的症状、疾病及相关文献,通过知识图谱关联起来,给出详细且有理有据的回答 。例如对于 “心脏病发作的紧急处理与后续康复护理的联系” 问题,GraphRAG 能深度关联不同方面知识,给出全面答案。
- 增强的推理能力:图结构提供了更强的语义理解能力,尤其是在需要多跳推理的任务中表现突出 。例如在回答 “A 事件如何间接导致 C 结果” 这类复杂问题时,能通过图谱路径进行多步推理,给出合理答案 。
- 适应复杂知识体系:能够动态整合不同来源的知识 。在科研论文生成场景中,可检索与主题相关的核心文献,利用知识图谱连接文献中的关键实体和观点,生成内容丰富且逻辑流畅的综述 。例如在生成关于人工智能发展趋势的综述时,能融合多篇不同角度的文献知识。
三、LightRAG
1. 什么是LightRAG
LightRAG 是一种优化版的检索增强生成(RAG)框架,旨在通过减少资源消耗和简化系统设计,实现轻量化与高效性 。它强调轻量化和高效性,针对资源受限的场景优化设计 ,适用于移动设备或实时性要求高的系统 。通过在设计中进行一系列优化,在保证生成质量的同时,降低硬件要求和运行成本 ,为移动设备、边缘计算环境等提供优化解决方案 。
2.工作原理
- 图基文本索引:LightRAG 将文本数据构建为图结构进行索引,节点可以是文本中的关键概念、实体等,边表示它们之间的语义关系。例如在一段关于旅游景点介绍的文本中,将景点名称、特色美食、周边交通等分别作为节点,根据文本描述建立如 “景点包含美食”“交通连接景点” 等边的关系。
- 双层检索范式:采用低层次和高层次的双层检索机制。低层次检索从基础数据中快速筛选出与查询可能相关的初步信息,高层次检索则基于低层次检索结果,进一步在更精细的层面进行深入检索,以获取更准确和全面的信息。比如用户查询 “北京旅游攻略”,低层次检索先从大量旅游文本中快速定位到包含 “北京” 的文档片段,高层次检索再从这些片段中精确查找与旅游攻略相关的详细内容,如景点推荐、游玩路线等。
- 检索增强答案生成:将检索到的信息输入到精简的生成模型中,生成最终答案。利用图结构与向量表示相结合的方式,高效检索相关实体及其关系,为生成模型提供有效的上下文信息,生成符合用户需求的回答。如根据前面检索到的北京旅游相关信息,生成 “北京旅游可以先去故宫游览古代宫殿建筑,然后在附近品尝北京烤鸭等特色美食,之后乘坐地铁前往颐和园……” 这样的攻略答案。
3.核心优势
- 轻量化设计:减少模型参数和计算复杂度,使其能在资源受限的环境中运行 。例如在移动端设备上,无需强大的算力支持就能快速运行。
- 实时性优化:提高系统响应速度,满足高实时性需求 。在实时客服系统中,能快速响应用户咨询,显著提高响应速度,降低服务器负载 。
- 模块化集成:提供灵活的检索与生成模块,便于在不同环境中部署 。在边缘设备的数据分析场景中,可本地检索传感器数据或历史记录,利用精简生成模型生成分析结果或建议 ,在不依赖云端的情况下实现高效处理,适应低带宽环境 。
4. LightRAG相比于GraphRAG的优势
虽然GraphRAG是开创性技术,但是它资源消耗太大。每一次运行往往需要数百次大模型API调用,通常用于像DeepSeek-R1这样昂贵的大型模型,这显然不适用于本地部署私有大模型的大多数场景。另外,每次更新外部数据源时GraphRAG都必须重建整个图谱,从而增加了成本。而LightRAG则不同:
- 使用更少的API调用,可以适用于更加轻量级的模型,如QwQ-32B。据测试,LightRAG的Token消耗仅为微软GraphRAG的1/6000,API调用次数减少约 90%。
- 允许对图形进行增量更新,而无需完全重新生成。
- 支持双层检索,如局部检索和全局检索,增强了检索信息的能力。它能够从低级别(具体细节)和高级别(宏观主题)两个层次全面检索信息,充分利用基于图的文本索引,捕获查询的完整上下文,从而生成更为丰富的回答。
一句话,LightRAG更快、更经济,并且允许对图进行增量更新,无需完全重新生成整个图谱。
四、AgenticRAG
1. 什么是AgenticRAG
Agentic RAG 通过引入能够进行动态决策和工作流优化的自主智能体,实现了范式转变 。与静态系统不同,代理式 RAG 采用迭代细化和自适应检索策略来处理复杂、实时和多领域的查询 。该范式在引入基于智能体的自主性的同时,利用检索和生成过程的模块化 。它就像给 AI 装上了 “智能小助手”,能够实时检索最新数据,还能根据复杂任务灵活调整策略,让回答更准确、更贴近我们的需求 。
下图为AgenticRAG的工作流程图。
Agentic RAG工作流程图
2.工作原理
- 自主决策:代理根据查询复杂度独立评估和管理检索策略 。例如当遇到一个复杂的金融领域问题,如 “分析当前宏观经济形势下,不同行业股票投资组合的风险与收益情况,并给出调整建议”,代理会判断需要从多个数据源获取信息,包括经济数据报告、行业研究报告、股票市场数据等,并自主选择合适的检索工具和方法。
- 迭代精炼:包含反馈循环以提高检索准确性和响应相关性 。代理在获取初步检索结果后,会对结果进行评估,如果发现结果不完整或不准确,会再次调整检索策略,重新进行检索。比如第一次检索到的行业研究报告不够新,代理会再次检索更新的报告,并将新结果与之前的进行融合。
- 工作流优化:动态编排任务,使实时应用效率更高 。在处理客户支持问题时,代理可以根据客户问题的紧急程度和类型,合理安排处理顺序,优先解决紧急且重要的问题,同时协调不同的服务资源,如知识库、专家系统等,以快速有效地解决客户问题。
3.核心优势
- 动态适应性:能够根据任务和环境的变化,实时调整检索和生成策略,更好地应对复杂多变的查询 。在金融分析领域,能随时根据市场动态变化调整分析策略和数据检索范围。
- 多步推理能力:通过自主代理的迭代推理,能够处理需要多步思考和分析的复杂问题 。在解决科学研究中的复杂问题时,能逐步推导,给出全面深入的答案。
- 提升用户体验:为用户提供更贴合需求、更准确的回答,在客户支持场景中,大大提高客户满意度 。例如在电商客服中,能快速准确地解决客户关于产品信息、订单问题等各种咨询。
五、三者之间的区别
为了更清晰地对比 GraphRAG、LightRAG 和 AgenticRAG,以下是它们的核心区别表格:
对比维度 | GraphRAG | LightRAG | AgenticRAG |
---|---|---|---|
核心架构 | 基于知识图谱的图结构,整合结构化与非结构化知识 | 轻量化设计,采用图基索引和双层检索范式 | 引入自主智能体,具备动态决策和迭代优化能力 |
适用场景 | 医疗、法律等需要复杂推理和知识关联的领域 | 移动设备、边缘计算等资源受限场景 | 动态复杂任务、实时响应需求高的场景 |
资源消耗 | 较高,需处理图结构和复杂知识关联 | 低,轻量化设计降低硬件要求 | 中等至较高,智能体决策和迭代需要一定资源 |
推理能力 | 强,尤其在多跳推理和关系分析上 | 适中,满足基础推理需求 | 强,支持多步迭代推理和动态问题解决 |
灵活性 | 依赖知识图谱结构,调整相对固定 | 模块化设计,便于集成和部署 | 高,可自主调整策略适应不同任务 |
六、如何选择
在选择 GraphRAG、LightRAG 和 AgenticRAG 时,需结合具体的应用场景、资源条件和任务需求:
-
若需处理复杂知识关联和多跳推理:如医疗诊断中的病因分析、法律案件中的条款关联等,GraphRAG 是理想选择。它能通过知识图谱深度挖掘实体间的关系,为复杂推理提供结构化支撑。
-
若处于资源受限环境或要求高效实时响应:例如移动应用中的智能问答、边缘设备的本地数据处理,LightRAG 更具优势。其轻量化设计能在低算力、低带宽条件下快速运行,保证实时性。
-
若面对动态变化的复杂任务或需要自主决策能力:如金融市场的实时分析、多步骤的客户服务流程优化,AgenticRAG 更适合。它的自主智能体能根据任务变化调整策略,通过迭代优化提升响应质量。
七、总结
随着技术的不断演进,GraphRAG、LightRAG、AgenticRAG 等多种类型的 RAG 技术展现出了强大的能力和广阔的应用前景。GraphRAG 通过知识图谱与检索增强生成的结合,提升了上下文理解和复杂推理能力;LightRAG 以轻量化和高效性为特点,满足了资源受限场景的需求;AgenticRAG 借助自主智能体实现了动态决策和工作流优化,增强了系统的适应性和多步推理能力。它们各自在不同的领域和场景中发挥着独特的优势,共同推动着人工智能应用向更加智能、高效、灵活的方向发展 。相信在未来,这些技术将不断完善和创新,为更多行业和用户带来更大的价值,助力解决更多复杂的实际问题,在自然语言处理以及更多相关领域中书写新的篇章 。
八、如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费
】
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。