2025年11月12号,Java Agent 生态迎来重大发布,Spring AI 发布 1.1.0 GA 正式版本,紧接着,2025年11月13号,Spring AI Alibaba 1.1 版本正式发布。1.1 版本是在总结 1.0 版本企业实践经验基础上发布的新版本,标志着构建企业级、生产就绪的 AI 智能体(Agent)应用进入了一个新的阶段。
Spring AI Alibaba 的核心目标是
- 提供构建 Agentic 智能体应用最简单的方式,您只需不到 10 行代码就可以启动并运行一个智能体应用。
- 同时,对于企业级场景需要的 Multi-agent、Workflow 工作流编排提供强大支持。
本文将深入解读 1.1 版本的核心能力,从基础的 ReactAgent 构建到复杂的“上下文工程”,再到强大的多智能体(Multi-agent)协作,帮助您全面了解如何利用该框架构建下一代智能应用。
网址:java2ai.com
提供了详细的上手教程文档

架构概览:三层设计
Spring AI Alibaba 项目在架构上包含三个清晰的层次:
- Agent Framework:以
ReactAgent设计理念为核心的 Agent 开发框架,内置了自动上下文工程和 Human In The Loop 等高级能力。 - Graph:一个更底层级别的工作流和多代理协调框架,是 Agent Framework 的底层运行时基座,用于实现复杂的工作流编排,同时对用户开放 API。
- Augmented LLM:基于 Spring AI 框架的底层原子抽象,提供了模型、工具、消息、向量存储等构建 LLM 应用的基础。

快速开始
我们以一个基础的 Spring Boot 应用为基础来开发一个 Spring AI Alibaba Agent 智能体,可以通过访问 https://start.spring.io/ 生成一个基础 Spring Boot 项目。
快速运行一个 ChatBot 示例
社区在 https://github.com/alibaba/spring-ai-alibaba/tree/main/examples/chatbot 提供了一个简单的 ChatBot 智能体示例,可以执行 Python 脚本、Shell脚本、查看本地文件等。接下来我们尝试通过运行示例快速体验 Spring AI Alibaba 1.1 版本。
- 下载示例源码
git clone https://github.com/alibaba/spring-ai-alibaba.git
cd examples/chatbot
- 启动 ChatBot 智能体
mvn spring-boot:run
- 打开 UI 和智能体聊天(测试智能体)
在示例的 Console 输出栏,可以看到一条 UI 地址打印出来:http://localhost:8080/chatui/index.html ,点击打开浏览器页面即可与智能体聊天了,可以看到详细的工具调用、推理过程。

示例源码解读
首先,是需要在项目添加如下 POM 依赖:
在项目中添加如下依赖:
<dependencies>
<!-- Spring AI Alibaba Agent Framework -->
<dependency>
<groupId>com.alibaba.cloud.ai</groupId>
<artifactId>spring-ai-alibaba-agent-framework</artifactId>
<version>1.1.0.0-M4</version>
</dependency>
<!-- DashScope ChatModel 支持(如果使用其他模型,请参考文档选择对应的 starter) -->
<dependency>
<groupId>com.alibaba.cloud.ai</groupId>
<artifactId>spring-ai-alibaba-starter-dashscope</artifactId>
<version>1.1.0.0-M4</version>
</dependency>
<!--【可选依赖】,studio可以默认带来Chat UI界面 -->
<dependency>
<groupId>com.alibaba.cloud.ai</groupId>
<artifactId>spring-ai-alibaba-studio</artifactId>
<version>1.1.0.0-M4</version>
</dependency>
</dependencies>
创建 Agent
创建一个 ChatBot Agent 只需要如下几行代码(本示例使用 Spring Boot 方式启动):
// ChatModel 等模型通信实例可自动注入
@Bean
public ReactAgent chatbotReactAgent(ChatModel chatModel,
ToolCallback executeShellCommand,
ToolCallback executePythonCode,
ToolCallback viewTextFile) {
return ReactAgent.builder()
.name("SAA")
.model(chatModel)
.instruction(INSTRUCTION)
.enableLogging(true)
.tools(
executeShellCommand,
executePythonCode,
viewTextFile
)
.build();
}
python工具定义如下,这里使用 GraalVM Python 库执行脚本,具体 PythonTool 可在 Github 仓库查看源码:
@Bean
public ToolCallback executePythonCode() {
return FunctionToolCallback.builder("execute_python_code", new PythonTool())
.description(PythonTool.DESCRIPTION)
.inputType(PythonTool.PythonRequest.class)
.build();
}
核心设计理念
ReactAgent
ReactAgent是 1.1 版本的核心组件之一,它基于 ReAct(Reasoning + Acting) 范式。这意味着 Agent 不仅仅是调用 LLM,它还可以在一个循环中运行,通过“思考(Reasoning)”来分析任务、决定使用哪个“工具(Acting)”,然后“观察(Observation)”工具结果,并迭代此过程,直到任务完成。

ReactAgent 行为由三个核心组件定义:
- Model (模型):Agent 的“大脑”,即 LLM 推理引擎,如
DashScopeChatModel。 - Tools (工具):赋予 Agent 执行操作的能力。您可以轻松定义一个工具:
// 定义一个搜索工具
public class SearchTool implements BiFunction<String, ToolContext, String> {
@Override
public String apply(String query, ToolContext toolContext) {
return "搜索结果:" + query;
}
}
// 将其注册为工具回调
ToolCallback searchTool = FunctionToolCallback
.builder("search", new SearchTool())
.description("搜索信息的工具")
.build();
- System Prompt (系统提示):通过
systemPrompt或instruction参数,塑造 Agent 的角色和行为方式。
Graph(Workflow)
Graph 是 Agent Framework 的底层运行时基座,是一个低级工作流和多智能体编排框架。它通过 State(状态)、Node(节点) 和 Edge(边) 三个核心概念,使开发者能够实现复杂的应用程序编排。Graph 提供了声明式的 Agentic API 与底层原子化的 Graph API 两种开发模式,开发者可以根据业务需求选择合适的方式。Graph 引擎原生支持 Streaming(流式响应)、Human In the Loop(人工介入)、Memory & Context(记忆与上下文管理)等智能体核心能力。在复杂场景中,可以将 ReactAgent 作为 SubGraph Node 集成到 StateGraph 中,实现 Agent 与自定义 Node 的混合编排,支持顺序执行、并行处理、条件分支等复杂流程控制,为构建企业级多智能体应用提供了强大的底层支撑。
框架内置了多种流程型 Agent,支持不同的多智能体协作模式:
- SequentialAgent(顺序执行):按预定义顺序依次执行多个 Agent (A -> B -> C)。每个 Agent 的输出(通过
outputKey指定)会传递给下一个 Agent,适用于需要按步骤顺序处理的任务,如"写作 -> 评审 -> 发布"的流程。 - ParallelAgent(并行执行):将相同的输入同时发送给所有子 Agent 并行处理,然后使用
MergeStrategy合并结果。适用于需要同时执行多个独立任务的场景,如同时生成散文、诗歌和总结等。 - LlmRoutingAgent(智能路由):使用 LLM 根据用户输入和子 Agent 的
description,智能地选择一个最合适的子 Agent 来处理请求。适用于需要根据上下文动态选择专家 Agent 的场景,如根据问题类型自动路由到编程专家或写作专家。
上下文工程 (Context Engineering)
构建 Agent 最大的难点是使其可靠。Agent 失败通常不是因为 LLM 能力不足,而是因为没有向 LLM 传递“正确”的上下文。
上下文工程(Context Engineering)正是解决这一问题的核心理念:以正确的格式提供正确的信息和工具,使 LLM 能够可靠地完成任务。
Spring AI Alibaba 将上下文分为三类,并提供了精细化的控制机制:
| 上下文类型 | 你控制的内容 | 拦截与处理机制 |
|---|---|---|
| 模型上下文 | 指令、消息历史、可用工具、响应格式等 | Interceptor, Hook |
| 工具上下文 | 在工具中可以访问和修改的状态(如短期记忆、长期) | Interceptor |
| 生命周期上下文 | 模型和工具调用之间发生的事(如摘要、护栏) | Hook |
Spring AI Alibaba 1.1 版本提供了一些常用的默认 Hook 和 Interceptor 实现:
- 人工介入 (Human-in-the-Loop)
- Planning(规划)
- 模型调用限制(Model Call Limit)
- 工具重试(Tool Retry)
- LLM Tool Selector(LLM 工具选择器)
- LLM Tool Emulator(LLM 工具模拟器)
- Context Editing(上下文编辑)
人工介入 (Human-in-the-Loop)
在生产环境中,高风险操作(如删除数据库、发送邮件)需要人工监督。HumanInTheLoopHook (HITL) 完美解决了这个问题。
它允许 Agent 暂停执行,等待人工决策(批准、编辑或拒绝)后再继续。
- 配置 Hook:在 Agent 上配置
HumanInTheLoopHook,指定需要审批的工具(如execute_sql)。此功能必须配置saver(检查点)。
HumanInTheLoopHook humanReviewHook = HumanInTheLoopHook.builder()
.approvalOn("execute_sql", ToolConfig.builder().description("SQL执行需要审批").build())
.build();
ReactAgent agent = ReactAgent.builder()
.hooks(humanReviewHook)
.saver(new MemorySaver()) // 必须配置 Saver
.tools(executeSqlTool)
.build();
- 触发中断:当 Agent 尝试调用
execute_sql时,执行会暂停。第一次invokeAndGetOutput调用会返回一个InterruptionMetadata(中断元数据)。
String threadId = "user-123";
RunnableConfig config = RunnableConfig.builder().threadId(threadId).build();
Optional<NodeOutput> result = agent.invokeAndGetOutput("删除旧记录", config);
// 此时 result.get() 是 InterruptionMetadata
- 人工决策与恢复:您的应用程序向用户展示中断信息。用户做出决策(例如“批准”)后,您构建一个包含该决策的反馈,并再次调用 Agent 以恢复执行。
// 假设用户批准了
InterruptionMetadata approvalMetadata = buildApprovalFeedback(interruptionMetadata);
RunnableConfig resumeConfig = RunnableConfig.builder()
.threadId(threadId) // 必须使用相同的 threadId
.addMetadata(RunnableConfig.HUMAN_FEEDBACK_METADATA_KEY, approvalMetadata)
.build();
// 第二次调用以恢复执行
Optional<NodeOutput> finalResult = agent.invokeAndGetOutput("", resumeConfig);
消息压缩 (Summarization)
当对话历史接近 Token 限制时,自动调用 LLM 压缩(总结)旧消息,防止上下文溢出。这是处理长期对话和多轮交互的关键能力,可以确保 Agent 在保持对话上下文的同时,不会因为消息历史过长而超出模型的上下文窗口限制。
适用场景:
- 超出上下文窗口的长期对话
- 具有大量历史记录的多轮对话
- 需要保留完整对话上下文的应用程序
使用示例:
import com.alibaba.cloud.ai.graph.agent.hook.summarization.SummarizationHook;
import com.alibaba.cloud.ai.graph.checkpoint.savers.MemorySaver;
// 创建消息压缩 Hook
SummarizationHook summarizationHook = SummarizationHook.builder()
.model(chatModel) // 用于生成摘要的 ChatModel(可以使用更便宜的模型)
.maxTokensBeforeSummary(4000) // 触发摘要之前的最大 token 数
.messagesToKeep(20) // 摘要后保留的最新消息数
.build();
// 使用
ReactAgent agent = ReactAgent.builder()
.name("my_agent")
.model(chatModel)
.hooks(summarizationHook)
.saver(new MemorySaver()) // 需要配置 Saver 来持久化状态
.build();
配置选项:
model:用于生成摘要的 ChatModel(可以使用更便宜的模型来降低成本)maxTokensBeforeSummary:触发摘要之前的最大 token 数,当消息历史达到此阈值时自动触发压缩messagesToKeep:摘要后保留的最新消息数,确保最近的对话内容完整保留
Planning(规划)
在执行工具之前强制执行一个规划步骤,以概述 Agent 将要采取的步骤。这对于需要执行复杂、多步骤任务的 Agent 特别有用,可以提高执行透明度,并便于调试错误。
适用场景:
- 需要执行复杂、多步骤任务的 Agent
- 通过在执行前显示 Agent 的计划来提高透明度
- 通过检查建议的计划来调试错误
import com.alibaba.cloud.ai.graph.agent.interceptor.todolist.TodoListInterceptor;
ReactAgent agent = ReactAgent.builder()
.name("planning_agent")
.model(chatModel)
.tools(myTool)
.interceptors(TodoListInterceptor.builder().build())
.build();
模型调用限制(Model Call Limit)
限制模型调用次数以防止无限循环或过度成本。这是生产环境中成本控制的重要手段。
适用场景:
- 防止失控的 Agent 进行太多 API 调用
- 在生产部署中强制执行成本控制
- 在特定调用预算内测试 Agent 行为
import com.alibaba.cloud.ai.graph.agent.hook.modelcalllimit.ModelCallLimitHook;
import com.alibaba.cloud.ai.graph.checkpoint.savers.MemorySaver;
ReactAgent agent = ReactAgent.builder()
.name("my_agent")
.model(chatModel)
.hooks(ModelCallLimitHook.builder().runLimit(5).build()) // 限制模型调用次数为5次
.saver(new MemorySaver())
.build();
工具重试(Tool Retry)
自动重试失败的工具调用,具有可配置的指数退避策略。这对于处理外部 API 调用中的瞬态故障特别有用,可以提高依赖网络的工具的可靠性。
适用场景:
- 处理外部 API 调用中的瞬态故障
- 提高依赖网络的工具的可靠性
- 构建优雅处理临时错误的弹性 Agent
import com.alibaba.cloud.ai.graph.agent.interceptor.toolretry.ToolRetryInterceptor;
ReactAgent agent = ReactAgent.builder()
.name("resilient_agent")
.model(chatModel)
.tools(searchTool, databaseTool)
.interceptors(ToolRetryInterceptor.builder()
.maxRetries(2)
.onFailure(ToolRetryInterceptor.OnFailureBehavior.RETURN_MESSAGE)
.build())
.build();
LLM Tool Selector(LLM 工具选择器)
使用一个 LLM 来决定在多个可用工具之间选择哪个工具。当多个工具可以实现相似目标时,可以根据细微的上下文差异进行智能选择。
适用场景:
- 当多个工具可以实现相似目标时
- 需要根据细微的上下文差异进行工具选择
- 动态选择最适合特定输入的工具
import com.alibaba.cloud.ai.graph.agent.interceptor.toolselection.ToolSelectionInterceptor;
ReactAgent agent = ReactAgent.builder()
.name("smart_selector_agent")
.model(chatModel)
.tools(tool1, tool2)
.interceptors(ToolSelectionInterceptor.builder().build())
.build();
LLM Tool Emulator(LLM 工具模拟器)
在没有实际执行工具的情况下,使用 LLM 模拟工具的输出。这对于演示、测试和开发阶段特别有用,可以在不产生实际成本或副作用的情况下测试 Agent 逻辑。
适用场景:
- 在演示或测试期间模拟 API
- 在开发过程中为工具提供占位符行为
- 在不产生实际成本或副作用的情况下测试 Agent 逻辑
import com.alibaba.cloud.ai.graph.agent.interceptor.toolemulator.ToolEmulatorInterceptor;
ReactAgent agent = ReactAgent.builder()
.name("emulator_agent")
.model(chatModel)
.tools(simulatedTool)
.interceptors(ToolEmulatorInterceptor.builder().model(chatModel).build())
.build();
Context Editing(上下文编辑)
在将上下文发送给 LLM 之前对其进行修改,以注入、删除或修改信息。这是上下文工程的核心能力之一,可以动态调整传递给模型的信息。
适用场景:
- 向 LLM 提供额外的上下文或指令
- 从对话历史中删除不相关或冗余的信息
- 动态修改上下文以引导 Agent 的行为
import com.alibaba.cloud.ai.graph.agent.interceptor.contextediting.ContextEditingInterceptor;
ReactAgent agent = ReactAgent.builder()
.name("context_aware_agent")
.model(chatModel)
.interceptors(ContextEditingInterceptor.builder()
.trigger(120000) // 当上下文超过120000 tokens时触发
.clearAtLeast(60000) // 至少清理60000 tokens
.build())
.build();
Hooks 与 Interceptors
Hooks (钩子) 和 Interceptors (拦截器) 是实现“上下文工程”的核心机制。它们允许您在 Agent 执行的每一步进行监控、修改、控制和强制执行。
- Hooks (
AgentHook,ModelHook):在 Agent 或模型生命周期的特定节点(如beforeModel,afterModel)_插入_自定义逻辑,如日志记录或消息修剪。 - Interceptors (
ModelInterceptor,ToolInterceptor):_包裹_模型或工具的调用,允许您拦截和_修改_请求/响应,或实现重试、缓存、安全护栏等。

Hook 与 Interceptor 能力强大,具体使用方式和工作原理请参考官方文档:https://java2ai.com/docs/frameworks/agent-framework/tutorials/hooks
示例 1:内容审核 Interceptor
public class ContentModerationInterceptor extends ModelInterceptor {
private static final List<String> BLOCKED_WORDS =
List.of("敏感词1", "敏感词2", "敏感词3");
@Override
public ModelResponse interceptModel(ModelRequest request, ModelCallHandler handler) {
// 检查输入
for (Message msg : request.getMessages()) {
String content = msg.getText().toLowerCase();
for (String blocked : BLOCKED_WORDS) {
if (content.contains(blocked)) {
return ModelResponse.blocked(
"检测到不适当的内容,请修改您的输入"
);
}
}
}
// 执行模型调用
ModelResponse response = handler.call(request);
// 检查输出
String output = response.getContent();
for (String blocked : BLOCKED_WORDS) {
if (output.contains(blocked)) {
// 清理输出
output = output.replaceAll(blocked, "[已过滤]");
return response.withContent(output);
}
}
return response;
}
@Override
public String getName() {
return "ContentModerationInterceptor";
}
}
示例 2:性能监控 - 使用 Interceptor
使用 ModelInterceptor 和 ToolInterceptor 监控模型和工具调用的性能:
public class ModelPerformanceInterceptor extends ModelInterceptor {
@Override
public ModelResponse interceptModel(ModelRequest request, ModelCallHandler handler) {
// 请求前记录
System.out.println("发送请求到模型: " + request.getMessages().size() + " 条消息");
long startTime = System.currentTimeMillis();
// 执行实际调用
ModelResponse response = handler.call(request);
// 响应后记录
long duration = System.currentTimeMillis() - startTime;
System.out.println("模型响应耗时: " + duration + "ms");
return response;
}
@Override
public String getName() {
return "ModelPerformanceInterceptor";
}
}
// 工具调用性能监控
public class ToolPerformanceInterceptor extends ToolInterceptor {
@Override
public ToolCallResponse interceptToolCall(ToolCallRequest request, ToolCallHandler handler) {
String toolName = request.getToolName();
long startTime = System.currentTimeMillis();
System.out.println("执行工具: " + toolName);
try {
ToolCallResponse response = handler.call(request);
long duration = System.currentTimeMillis() - startTime;
System.out.println("工具 " + toolName + " 执行成功 (耗时: " + duration + "ms)");
return response;
} catch (Exception e) {
long duration = System.currentTimeMillis() - startTime;
System.err.println("工具 " + toolName + " 执行失败 (耗时: " + duration + "ms): " + e.getMessage());
return ToolCallResponse.of(
request.getToolCallId(),
request.getToolName(),
"工具执行失败: " + e.getMessage()
);
}
}
@Override
public String getName() {
return "ToolPerformanceInterceptor";
}
}
// 使用示例
ReactAgent agent = ReactAgent.builder()
.name("monitored_agent")
.model(chatModel)
.tools(tools)
.interceptors(new ModelPerformanceInterceptor())
.interceptors(new ToolPerformanceInterceptor())
.build();
示例 3:工具缓存 Interceptor
public class ToolCacheInterceptor extends ToolInterceptor {
private Map<String, ToolCallResponse> cache = new ConcurrentHashMap<>();
private final long ttlMs;
public ToolCacheInterceptor(long ttlMs) {
this.ttlMs = ttlMs;
}
@Override
public ToolCallResponse interceptToolCall(ToolCallRequest request, ToolCallHandler handler) {
String cacheKey = generateCacheKey(request);
// 检查缓存
ToolCallResponse cached = cache.get(cacheKey);
if (cached != null && !isExpired(cached)) {
System.out.println("缓存命中: " + request.getToolName());
return cached;
}
// 执行工具
ToolCallResponse response = handler.call(request);
// 缓存结果
cache.put(cacheKey, response);
return response;
}
@Override
public String getName() {
return "ToolCacheInterceptor";
}
private String generateCacheKey(ToolCallRequest request) {
return request.getToolName() + ":" +
request.getArguments();
}
private boolean isExpired(ToolCallResponse response) {
// 实现 TTL 检查逻辑
return false;
}
}
Memory 与状态管理
Spring AI Alibaba 将短期记忆作为 Agent 状态的一部分进行管理。
通过将这些存储在 Graph 的状态中,Agent 可以访问给定对话的完整上下文,同时保持不同对话之间的分离。状态使用 checkpointer 持久化到数据库(或内存),以便可以随时恢复线程。短期记忆在调用 Agent 或完成步骤(如工具调用)时更新,并在每个步骤开始时读取状态。
记忆带来的上下文过长问题
保留所有对话历史是实现短期记忆最常见的形式。但较长的对话对历史可能会导致大模型 LLM 上下文窗口超限,导致上下文丢失或报错。
即使你在使用的大模型上下文长度足够大,大多数模型在处理较长上下文时的表现仍然很差。因为很多模型会被过时或偏离主题的内容"分散注意力"。同时,过长的上下文,还会带来响应时间变长、Token 成本增加等问题。
在 Spring AI ALibaba 中,ReactAgent 使用 messages 记录和传递上下文,其中包括指令(SystemMessage)和输入(UserMessage)。在 ReactAgent 中,消息(Message)在用户输入和模型响应之间交替,导致消息列表随着时间的推移变得越来越长。由于上下文窗口有限,许多应用程序可以从使用技术来移除或"忘记"过时信息中受益,即 “上下文工程”。
启用记忆
要启用会话级持久化,您只需在创建 Agent 时指定一个 checkpointer (保存器)。
import com.alibaba.cloud.ai.graph.checkpoint.savers.MemorySaver;
import com.alibaba.cloud.ai.graph.RunnableConfig;
// 1. 配置内存存储
ReactAgent agent = ReactAgent.builder()
.name("chat_agent")
.model(chatModel)
.saver(new MemorySaver()) //
.build();
// 2. 使用 thread_id 维护对话上下文
RunnableConfig config = RunnableConfig.builder()
.threadId("user_123") //
.build();
agent.call("我叫张三", config);
agent.call("我叫什么名字?", config); // Agent 会回答: "你叫张三"
在生产环境中,您可以轻松换成 RedisSaver 或 MongoSaver 等持久化存储。
示例:在工具中读取/写入短期记忆
使用 ToolContext 参数在工具中访问短期记忆(状态)。
public class UserInfoTool implements BiFunction<String, ToolContext, String> {
@Override
public String apply(String query, ToolContext toolContext) {
// 从上下文中获取用户信息
RunnableConfig config = (RunnableConfig) toolContext.getContext().get("config");
String userId = (String) config.metadata("user_id").orElse("");
if ("user_123".equals(userId)) {
return "用户是 John Smith";
} else {
return "未知用户";
}
}
}
// 创建工具
ToolCallback getUserInfoTool = FunctionToolCallback
.builder("get_user_info", new UserInfoTool())
.description("查找用户信息")
.inputType(String.class)
.build();
// 使用
ReactAgent agent = ReactAgent.builder()
.name("my_agent")
.model(chatModel)
.tools(getUserInfoTool)
.saver(new MemorySaver())
.build();
RunnableConfig config = RunnableConfig.builder()
.threadId("1")
.addMetadata("user_id", "user_123")
.build();
AssistantMessage response = agent.call("获取用户信息", config);
System.out.println(response.getText());
示例二:在工具中读取长期记忆
下面的示例展示了如何创建一个工具,让 Agent 能够查询用户信息。
// 定义请求和响应记录
public record GetMemoryRequest(List<String> namespace, String key) {}
public record MemoryResponse(String message, Map<String, Object> value) {}
// 创建内存存储
MemoryStore store = new MemoryStore();
// 向存储中写入示例数据
Map<String, Object> userData = new HashMap<>();
userData.put("name", "张三");
userData.put("language", "中文");
StoreItem userItem = StoreItem.of(List.of("users"), "user_123", userData);
store.putItem(userItem);
// 创建获取用户信息的工具
BiFunction<GetMemoryRequest, ToolContext, MemoryResponse> getUserInfoFunction =
(request, context) -> {
Optional<StoreItem> itemOpt = store.getItem(request.namespace(), request.key());
if (itemOpt.isPresent()) {
Map<String, Object> value = itemOpt.get().getValue();
return new MemoryResponse("找到用户信息", value);
}
return new MemoryResponse("未找到用户", Map.of());
};
ToolCallback getUserInfoTool = FunctionToolCallback.builder("getUserInfo", getUserInfoFunction)
.description("查询用户信息")
.inputType(GetMemoryRequest.class)
.build();
// 创建Agent
ReactAgent agent = ReactAgent.builder()
.name("memory_agent")
.model(chatModel)
.tools(getUserInfoTool)
.saver(new MemorySaver())
.build();
// 运行Agent
RunnableConfig config = RunnableConfig.builder()
.threadId("session_001")
.addMetadata("user_id", "user_123")
.build();
agent.invoke("查询用户信息,namespace=['users'], key='user_123'", config);`}
示例三:使用 ModelHook 管理长期记忆
下面的示例展示了如何使用 ModelHook 在模型调用前后自动加载和保存长期记忆。
// 创建内存存储
MemoryStore memoryStore = new MemoryStore();
// 预先填充用户画像
Map<String, Object> profileData = new HashMap<>();
profileData.put("name", "王小明");
profileData.put("age", 28);
profileData.put("email", "wang@example.com");
profileData.put("preferences", List.of("喜欢咖啡", "喜欢阅读"));
StoreItem profileItem = StoreItem.of(List.of("user_profiles"), "user_001", profileData);
memoryStore.putItem(profileItem);
// 创建记忆拦截器
ModelHook memoryInterceptor = new ModelHook() {
@Override
public String getName() {
return "memory_interceptor";
}
@Override
public HookPosition[] getHookPositions() {
return new HookPosition[]{HookPosition.BEFORE_MODEL, HookPosition.AFTER_MODEL};
}
@Override
public CompletableFuture<Map<String, Object>> beforeModel(OverAllState state, RunnableConfig config) {
// 从配置中获取用户ID
String userId = (String) config.metadata("user_id").orElse(null);
if (userId == null) {
return CompletableFuture.completedFuture(Map.of());
}
// 从记忆存储中加载用户画像
Optional<StoreItem> itemOpt = memoryStore.getItem(List.of("user_profiles"), userId);
if (itemOpt.isPresent()) {
Map<String, Object> profileData = itemOpt.get().getValue();
// 将用户上下文注入系统消息
String userContext = String.format(
"用户信息:姓名=%s, 年龄=%s, 邮箱=%s, 偏好=%s",
profileData.get("name"),
profileData.get("age"),
profileData.get("email"),
profileData.get("preferences")
);
// 获取消息列表
List<Message> messages = (List<Message>) state.value("messages").orElse(new ArrayList<>());
List<Message> newMessages = new ArrayList<>();
// 查找是否已存在 SystemMessage
SystemMessage existingSystemMessage = null;
int systemMessageIndex = -1;
for (int i = 0; i < messages.size(); i++) {
Message msg = messages.get(i);
if (msg instanceof SystemMessage) {
existingSystemMessage = (SystemMessage) msg;
systemMessageIndex = i;
break;
}
}
// 如果找到 SystemMessage,更新它;否则创建新的
SystemMessage enhancedSystemMessage;
if (existingSystemMessage != null) {
// 更新现有的 SystemMessage
enhancedSystemMessage = new SystemMessage(
existingSystemMessage.getText() + "\n\n" + userContext
);
} else {
// 创建新的 SystemMessage
enhancedSystemMessage = new SystemMessage(userContext);
}
// 构建新的消息列表
if (systemMessageIndex >= 0) {
// 如果找到了 SystemMessage,替换它
for (int i = 0; i < messages.size(); i++) {
if (i == systemMessageIndex) {
newMessages.add(enhancedSystemMessage);
} else {
newMessages.add(messages.get(i));
}
}
} else {
// 如果没有找到 SystemMessage,在开头添加新的
newMessages.add(enhancedSystemMessage);
newMessages.addAll(messages);
}
return CompletableFuture.completedFuture(Map.of("messages", newMessages));
}
return CompletableFuture.completedFuture(Map.of());
}
@Override
public CompletableFuture<Map<String, Object>> afterModel(OverAllState state, RunnableConfig config) {
// 可以在这里实现对话后的记忆保存逻辑
return CompletableFuture.completedFuture(Map.of());
}
};
// 创建带有记忆拦截器的Agent
ReactAgent agent = ReactAgent.builder()
.name("memory_agent")
.model(chatModel)
.hooks(memoryInterceptor)
.saver(new MemorySaver())
.build();
RunnableConfig config = RunnableConfig.builder()
.threadId("session_001")
.addMetadata("user_id", "user_001")
.build();
// Agent会自动加载用户画像信息
agent.invoke("请介绍一下我的信息。", config);`}
多智能体 (Multi-agent)
当单个 Agent 难以处理复杂任务时,多智能体架构允许您将任务分解为多个协同工作的专业化 Agent。Spring AI Alibaba 支持两种核心模式:
模式一:工具调用 (Agent as a Tool)
这是一种集中式控制流,一个“控制器” (Controller) Agent 将其他“子 Agent” (Sub-agent) 作为工具来调用。
子 Agent 独立执行任务并返回结果,但不直接与用户对话。
import com.alibaba.cloud.ai.graph.agent.tool.AgentTool;
// 1. 创建子 Agent (作家)
ReactAgent writerAgent = ReactAgent.builder()
.name("writer_agent")
.model(chatModel)
.description("擅长写作,可以写文章")
.build();
// 2. 创建主 Agent (控制器)
ReactAgent blogAgent = ReactAgent.builder()
.name("blog_agent")
.model(chatModel)
.instruction("使用写作工具来完成用户的文章创作请求。")
// 将子 Agent 封装为工具
.tools(AgentTool.getFunctionToolCallback(writerAgent)) //
.build();
blogAgent.invoke("帮我写一篇关于西湖的散文");
您还可以通过在子 Agent 上设置 inputType 和 outputType,来精细化控制 Agent 间传递的上下文结构。
模式二:工作流编排 (Handoffs / Flow)
这是一种去中心化控制流,控制权从一个 Agent “交接”给下一个 Agent。框架内置了多种流程型 Agent:
SequentialAgent:按预定义顺序依次执行 Agent (A -> B -> C)。每个 Agent 的输出(通过outputKey指定)会传递给下一个。ParallelAgent:将相同的输入同时发送给所有子 Agent 并行处理,然后使用MergeStrategy合并结果。LlmRoutingAgent:使用 LLM 根据用户输入和子 Agent 的description,_智能_地选择一个最合适的子 Agent 来处理请求。
示例:LlmRoutingAgent
在路由模式中,使用大语言模型(LLM)动态决定将请求路由到哪个子 Agent。这种模式非常适合需要智能选择不同专家 Agent 的场景。LLM 会根据用户输入和子 Agent 的 description,智能地选择最合适的 Agent 来处理请求。
import com.alibaba.cloud.ai.graph.agent.flow.agent.LlmRoutingAgent;
// 创建多个专家 Agent
ReactAgent writerAgent = ReactAgent.builder()
.name("writer_agent")
.model(chatModel)
.description("擅长创作各类文章,包括散文、诗歌等文学作品")
.instruction("你是一个知名的作家,擅长写作和创作。请根据用户的提问进行回答。")
.outputKey("writer_output")
.build();
ReactAgent codeAgent = ReactAgent.builder()
.name("code_agent")
.model(chatModel)
.description("专门处理编程相关问题,包括代码编写和调试")
.instruction("你是一个资深的软件工程师,擅长编写和调试代码。")
.outputKey("code_output")
.build();
// 创建路由 Agent
LlmRoutingAgent routingAgent = LlmRoutingAgent.builder()
.name("content_routing_agent")
.description("根据用户需求智能路由到合适的专家Agent")
.model(chatModel) // 路由需要一个 LLM 来进行智能选择
.subAgents(List.of(writerAgent, codeAgent))
.build();
// 使用 - LLM 会自动选择最合适的 Agent
// LLM 会路由到 writerAgent
Optional<OverAllState> result1 = routingAgent.invoke("帮我写一篇关于春天的散文");
// LLM 会路由到 codeAgent
Optional<OverAllState> result2 = routingAgent.invoke("帮我写一个 Java 排序算法");
模式三:Agent as Workflow Node
在复杂的工作流场景中,可以将 ReactAgent 作为 Node 集成到 StateGraph 中,实现更强大的组合能力。Agent 作为 Node 可以利用其推理和工具调用能力,处理需要多步骤推理的任务。
ReactAgent 可以通过 asNode() 方法转换为可以嵌入到父 Graph 中的 Node:
public class AgentWorkflowExample {
public StateGraph buildWorkflowWithAgent(ChatModel chatModel) {
// 创建专门的数据分析 Agent
ReactAgent analysisAgent = ReactAgent.builder()
.name("data_analyzer")
.model(chatModel)
.instruction("你是一个数据分析专家,负责分析数据并提供洞察")
.tools(dataAnalysisTool, statisticsTool)
.build();
// 创建报告生成 Agent
ReactAgent reportAgent = ReactAgent.builder()
.name("report_generator")
.model(chatModel)
.instruction("你是一个报告生成专家,负责将分析结果转化为专业报告")
.tools(formatTool, chartTool)
.build();
// 构建包含 Agent 的工作流
StateGraph workflow = new StateGraph("multi_agent_workflow", keyStrategyFactory);
// 将 Agent 作为 SubGraph Node 添加
workflow.addNode("analysis", analysisAgent.asNode(
true, // includeContents: 是否传递父图的消息历史
false, // returnReasoningContents: 是否返回推理过程
"analysis_result" // outputKeyToParent: 输出键名
));
workflow.addNode("reporting", reportAgent.asNode(
true,
false,
"final_report"
));
// 定义流程
workflow.addEdge(StateGraph.START, "analysis");
workflow.addEdge("analysis", "reporting");
workflow.addEdge("reporting", StateGraph.END);
return workflow;
}
}
总结
Spring AI Alibaba 1.1 提供了一个从简单到复杂的完整 Agent 开发框架。它以 ReactAgent 为核心,通过先进的“上下文工程”理念,利用 Hooks 和 Interceptors 提供了强大的可控性。借助 Memory 和 Human-in-the-Loop 等生产级特性,以及灵活的多智能体编排能力,开发者可以构建出真正可靠、智能、可扩展的企业级 AI 应用。
358

被折叠的 条评论
为什么被折叠?



