图思维链(Graph-CoT)使大型语言模型(LLMs)能够对图结构知识进行逐步推理,但现有技术方案因采用单智能体整体提示、上下文重复编码(re-encoding)及低效的服务执行,存在准确率低、token消耗过高、延迟严重及吞吐量低等问题。
为此,南京大学联合蚂蚁集团等研究者提出了多智能体图思维链框架GLM,包含三个LLM智能体和一个Graph RAG检索器,将推理任务分解为分类、推理、动作生成和图检索。GLM通过分支推理和选择性上下文共享机制,在保持推理质量的同时缩短提示长度、减少推理迭代次数,从而提升准确率并显著降低总体token消耗。与 Graph-CoT 基线相比,GLM 将答案准确率最高提升 38%,Token消耗最多降低 95.7%,推理延迟降低 90.3%,吞吐量最高提升达 15.1 倍,从而为大规模复杂现实场景的推理任务提供了高效可行的实施路径。

-
论文标题:
Scaling Graph Chain-of-Thought Reasoning: A Multi-Agent Framework with Efficient LLM Serving
-
论文链接:
https://arxiv.org/pdf/2511.01633v1
01 方法
(1)图思维链(Graph-CoT)
传统检索增强生成(RAG)流程主要基于独立文本片段(即扁平化文本)进行操作,忽略了现实世界数据中普遍存在的复杂结构与实体关联依赖,如知识图谱、企业数据湖、科学知识库、金融网络等结构化数据集。
为弥补这一局限,Graph-CoT通过LLM推理与图检索来扩展RAG(如图1所示),实现了LLM与图数据之间的迭代交互。Graph-CoT允许LLM迭代地查询图节点、检查属性、探索相邻节点并沿着图结构积累证据。

图1:Graph-CoT 框架示意图
当前Graph-CoT框架在处理需要多跳推理的查询时面临两大挑战:
(1) 现有的 Graph-CoT 框架在单智能体架构下难以有效处理复杂的多跳推理任务。随着推理步骤增加,输入序列持续延长并累积冗余上下文,导致信息稀释和中间信息丢失(lost-in-the-middle)问题。此外,由于重复的前缀与持续增加的上下文,现有框架还面临高昂的token开销。
(2) 推理效率低下。在并发场景下,KV-cache命中率较低。简单的LRU淘汰策略与实体的非规范排序阻碍了前缀复用,同时图检索延迟随数据规模扩大而持续增加。
(2)多智能体图思维链框架GLM

图3:多智能体推理框架工作流程
GLM框架工作流程如图3所示,包含一个Graph RAG检索器和三个LLM智能体,各智能体根据任务特定输入运行,并调用推理引擎生成中间或最终结果,而检索器则在每一步提供必要的图谱事实数据。

图4:Graph-CoT 与 GLM 的智能体对比
分类智能体(C-Agent):用于判定问题类型属于确定性或非确定性。确定性的问题可直接通过检索图信息来回答,而非确定性问题则需要在多个节点和关系间进行多跳推理。
推理智能体(R-Agent):负责判定当前已知信息是否足以回答给定问题。若现有信息不足,该智能体会识别出需要补充哪些额外信息;反之,则直接生成最终答案。推理智能体通过一种笔记机制(notebook mechanism)运作,能在思维链推理过程中持续积累和维护已知事实。在每一步推理中,该notebook都会通过检索器从图数据中获取新事实并更新。
动作智能体(A-Agent):负责生成可执行的 Python 代码片段,以获取推理智能体所识别出的缺失信息。与以往的 Graph-CoT 系统将操作限制于预定义功能不同,该智能体能够生成多个函数组合、基础控制结构(if-else、for)及标准数据类型(set, list, dict)的表达式。这使得复杂的推理任务可以在单次执行中完成,减少了多轮交互。智能体通过print()语句仅输出必要结果,避免冗余的中间上下文信息。
如图6所示,对于需要从多个顶点获取信息的查询,单个代码片段可在一轮推理中调用多个图函数,从而减少交互步骤。对于涉及中间计算的查询,该代码片段可在内部执行本地数据处理(例如,求平均值或交集),避免了冗余的中间结果存储并降低推理开销。这种优化有效减少了每条查询所需的推理轮数和总token消耗。

图6:代码片段示例,减少推理步骤
除了基于LLM的智能体外,GLM 的另一个关键组件是Graph RAG检索器,它充当动作智能体与底层图结构数据之间的桥梁。当动作智能体生成一段 Python 代码以获取缺失信息时,系统通过 Python 的 exec() 函数执行,并将返回结果作为新知识追加至智能体的notebook中,供后续推理使用。
表 2 总结了所有核心函数。研究团队在 Graph-CoT的检索接口基础上进行了扩展,新增了 NodeInfo() 函数,用于提供以顶点为中心(vertex-centric)的上下文信息。RetrieveNode() 通过对图嵌入索引进行向量搜索,将实体映射到对应的节点 ID;其余函数则负责将节点ID映射至内存字典中存储的属性和元数据。
表2:Graph RAG检索器核心函数

(3)面向 Graph-CoT 的 LLM 推理优化
在多智能体图思维链框架GLM的基础上,研究团队还提出了三个面向Graph-CoT的LLM推理优化技术,旨在提升端到端推理效率、降低端到端延迟并提高吞吐量。
- 以顶点为中心的KV缓存复用模型
研究团队提出以顶点为中心的KV缓存复用模型,利用图结构实现跨查询的前缀KV缓存共享,降低LLM预填充阶段延迟。
面对非确定性查询时,notebook能够在多轮迭代中会逐步从Graph RAG中积累信息。如图7所示,首次迭代会检索特定节点关联的顶点块。推理智能体处理该顶点块(vertex chunk 1)时生成对应KV缓存。由于notebook能够持续保留这些信息,同一顶点块在后续迭代中仍保持关联性,使得其KV缓存可被复用,从而消除冗余计算。
假设出现第二个独立查询也需检索相同顶点块(蓝色高亮部分),由于该顶点块的KV缓存已预先计算,系统可直接复用而无需重新计算。

图7:前缀KV缓存复用模型示例
- 基于优先级的 KV 缓存调度策略
智能体输入的内容中,不同片段未来复用可能性存在显著差异。对于复用概率较低的KV缓存项应先被驱逐,而具有高复用概率的缓存项则需保留更长时间。为此,研究团队提出了一种基于优先级的 KV 缓存调度策略,该策略能识别任务特定的复用模式,智能地管理缓存保留,从而减少冗余计算并提升整体推理效率。

图8:KV 缓存调度示例
- 流水线执行策略
研究团队设计了一种新颖的流水线执行策略,实现检索操作与LLM推理阶段的重叠执行,有效隐藏检索延迟,提升系统整体响应速度。
研究团队将动作智能体的LLM推理划分为两个阶段:包含RetrieveNode调用的那一行代码的预填充阶段与解码阶段;剩余 token 的解码阶段。
如图9所示,该策略的核心思想是将检索器执行过程与动作智能体的第二阶段流水线化。绿色部分代表LLM的预填充阶段,黄色部分对应初始解码阶段(包含RetrieveNode函数调用的解码)。一旦该调用被解码,系统立即触发检索过程。当检索器执行时(粉色段所示),LLM同时解码剩余token。虚线箭头展示了检索执行与token生成的重叠区域,这种重叠正是流水线策略的基础,能有效隐藏检索延迟并提升多智能体执行的整体吞吐量。

图9:流水线执行策略
为进一步降低检索延迟,研究团队维护了一个有界的全局LRU缓存,将 RetrieveNode 的输入(即文本查询)映射到其对应的输出 NodeIDs。这种设计能避免重复检索导致的冗余计算。当系统在第一阶段检测到RetrieveNode调用时,会优先在缓存中匹配查询记录。若存在,则直接复用缓存结果;否则,系统将执行检索操作并将结果存入缓存以供后续使用。
02 评估
表4:使用 Rouge-L(R-L)和 GPTScore 评估的各LLM变体基准准确率对比

GLM 相较于所有基线方法在准确率上的提升效果如表 4 所示。实验结果表明,GLM 在所有评测基准上均取得显著且稳定的性能优势。GLM 相较于Base LLMs准确率提升了60%,相较于 Text RAG 提升了62%,相较于Graph RAG提升了55%,相较于 Graph-CoT 提升了 38%。
相较于Graph-CoT的改进主要体现在需要多跳推理和多节点信息聚合的问题上。Graph-CoT在长思维链推理场景中难以保持逻辑连贯性,并且频繁超出步数限制时;GLM通过将子任务分配给专用智能体,并用确定性、可执行代码片段替代重复的LLM 推理过程,从而实现了更结构化、更准确且更具可扩展性的推理。

图10:token消耗对比
Graph-CoT与GLM在推理过程中的token消耗对比如图10所示。Graph-CoT需要迭代多步推理、维护长共享前缀以及保留冗余的上下文,产生了大量的token开销。相比之下,GLM 的token使用量大幅降低。其中,GLM每个实例的平均token消耗范围为1,538∼2,974个,而Graph-CoT则高达 22,613∼45,490 个,GLM 最多可减少 95.7% 的token使用量。
为深入理解这一改进的来源,研究团队进一步通过两个维度分解token消耗:(1)单次查询的平均LLM调用次数;(2)单次调用的平均token消耗量。结果显示,GLM每个实例仅需2~3次LLM调用,单次调用约消耗769~991个token;而Graph-CoT每个查询需执行9~14次调用,单次调用消耗1,875~4,483个token。这些结果表明,GLM****通过同时降低 LLM 调用频率和单次调用的token数量,大幅提升了推理效率。
这种效率源于GLM的三大优势:
(1)由分类智能体、推理智能体和动作智能体构成的多智能体架构,能够保证各组件在任务特定上下文中运行,从而避免提示词冗余;
(2)与 Graph-CoT 在各推理步骤间传递完整的中间推理状态不同,GLM 仅在一个轻量级notebook中维护必要的图衍生事实,显著缩短了提示长度;
(3)GLM 用简洁的可执行的代码片段替代了冗长的多步推理链,从而最小化单任务所需的LLM调用次数。

图11:端到端延迟对比
图11展示了Graph-CoT与GLM的端到端延迟。结果表明,Graph-CoT处理每个查询需要11.3至38.6秒,而GLM完成相同任务仅需2.8至5.9秒,延迟降低幅度达74.7%至90.3%。Graph-CoT的高延迟主要源于其单智能体执行模型,以及缺失系统级优化。相比之下,GLM通过其内在的多智能体设计和三项系统优化实现了更低的延迟。

图14:吞吐量对比
吞吐量评估如图14所示,吞吐量定义为每单位时间内处理的问答对数量。Graph-CoT每秒仅处理0.6 ∼ 2.2个查询。相比之下,GLM 实现了更高的吞吐量,每秒能够处理6.8 ∼ 9.1个查询,相比Graph-CoT可实现3.2倍至15.1倍的吞吐量提升。
那么,如何系统的去学习大模型LLM?
作为一名深耕行业的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。
所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。
由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~

👉大模型学习指南+路线汇总👈
我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。


👉①.基础篇👈
基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。

👉②.进阶篇👈
接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。

👉③.实战篇👈
实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。

👉④.福利篇👈
最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!

被折叠的 条评论
为什么被折叠?



