架构师(JiaGouX)
我们都是架构师!
架构未来,你来不来?
0. 导读
阅读重点
- Function Calling:模型如何“伸手”操作工具
- MCP:工具如何“统一接头”对接模型
- A2A:多智能体如何“互相喊话”分工协作
- 三者不是替代,而是“工具调用 → 接口标准化 → 智能体协作”的递进演化
1. 演进脉络概览

- 2023 Q3 OpenAI — Function Calling
让 GPT‑4 能在一次对话里发起 API 调用。
- 2024 Q4 Anthropic — MCP
用统一协议把“任意工具 × 任意模型”拆解为线性成本。
- 2025 Q2 Google — A2A
让多个 Agent 形成流水线,共同完成长链路任务。
2. Function Calling:最短路径把 LLM 与单一函数相连

| 关键环节 | 工程要点 |
|---|---|
| 识别意图 | LLM 基于自然语言判断是否需要外部数据 |
| 挑选函数 | 依赖 prompt 中给出的 JSON Schema |
| 组装参数 | 纯 JSON,幂等性由业务自行保证 |
| 返回结果 | LLM 将 JSON 响应“翻译”成自然语言 |
适用场景
- 单模型、少量工具、快速 MVP
- 服务调用以 GET/POST 为主、链路 < 1 步
局限
-
N×M 适配
:换模型、加工具都要重写 schema
-
无法原生链式
:多步调用需应用显式编排
-
接口碎片化
:各家厂商语法不一
3. MCP:把“模型 × 工具”降维为“模型 + 工具”

| 组件 | 角色 | 典型实现 | 关注点 |
|---|---|---|---|
| Host | 用户端入口 | Claude Desktop, IDE 插件 | 体验聚合 |
| Client | 长连接管理 | 官方/三方 SDK | 连接复用、流控 |
| Server | 工具包装器 | 向量检索服务、数据库桥 | 统一 RPC & 权控 |
| 数据源 | 真正的 API / 文件 | 本地或云服务 | 安全隔离 |
核心优势
-
一次对接,多端复用
:Server 写一次,任何 Client 可用
-
本地优先
:敏感数据留在端侧,满足合规
-
天然多步
:Server 可内部再调用其他 Server,形成链式调用
-
生态累积
:社区已有大量开源 Server,可即插即用
4. A2A:让多 Agent 成为“协同作战小队”

4.1 关键术语
-
A2A Client
:任务发起者
-
A2A Server
:任务调度与状态广播
-
Task State
:
SUBMITTED → IN_PROGRESS → WAITING_INPUT? → SUCCEEDED/FAILED
4.2 生命周期
-
提交任务
:HTTP POST 包含任务类型与负载
-
即时回执
:返回
task_id与SUBMITTED状态 -
流式更新
:SSE/gRPC‑stream 推送进度
-
终态输出
:回调或轮询获取结果 / 错误栈
4.3 工程价值
-
横向扩展
:新增 Agent=新增节点,无需改中心调度
-
长链路透明
:状态机+心跳,易做 SLA 监控
-
能力协作
:搜索 Agent、翻译 Agent、总结 Agent 可流水线式串接
5. 三者对比与协同
| 维度 | Function Calling | MCP | A2A |
|---|---|---|---|
| 聚焦点 | 模型 ↔单工具 | 模型 ↔多工具 | Agent ↔ Agent |
| 通信模式 | 单次 RPC | 双工 JSON‑RPC / WebSocket | HTTP + SSE / gRPC‑stream |
| 扩展成本 | M×N | M+N | K(Agent 数) |
| 链式调用 | 应用层显式编排 | Server 内部可递归 | 原生 Task DAG |
| 典型角色 | “伸手” | “接头” | “喊话” |
关系总结
Function Calling ↔ MCP
:先有能“用”工具(Function Calling),再统一“接”工具(MCP)。
MCP ↔ A2A
:MCP 解决怎么做,A2A 解决谁来做。
A2A ↔ Function Calling
:单个 Agent 内仍可用 Function Calling 接本地函数。
速查表

典型决策情景

技术融合
长期来看,我们可能会看到这三大通信机制(Function Calling、MCP、A2A)逐渐融合的趋势。不过,目前 OpenAI 和 Anthropic 尚未支持 A2A。

- 结语
三条协议并非此消彼长,而是逐层补位:
- Function Calling 让模型先“动手”;
- MCP 让所有手都能用同一“插口”;
- A2A 让多双手排成流水线、真正高效协作。
在工程实践里,可以把三条协议视作渐进式层叠:
Function Calling带来最小可行能力;MCP消除接口碎片、释放生态价值;A2A则让能力真正“组织化”,完成复杂任务。
当下没有哪条路线独占未来,但把系统设计成可插拔、可组合,才能在技术快速迭代中保持韧性。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

2957

被折叠的 条评论
为什么被折叠?



