一、智能体的定义
如果说去年是大型语言模型(LLM)的元年,那么今年可以称之为智能体(AI Agent)的元年,根据智能体(AI Agent)架构和组成方式不同,智能体可进一步分为两类:
- 狭义智能体:核心在于模型本身原生支持工具调用与任务闭环执行,能够在无需持续人工干预的情况下,实现自我学习与优化,具备高度的环境适应与泛化能力。
- 广义智能体:泛指一切能够感知环境、决策和执行任务以达成目标的系统——基于“模型推理能力(Reasoning)+ 任务指令(Instruction)”实现“引导式自主”(Guided Autonomy),并通过“工作流(Workflow)+ 工具调用(Tool Use)”完成“预定义行动”(Pre-defined Action)。
二、智能体核心灵魂组成部分
2.1 智能体运行时核心组件
用一个简洁公式概括智能体的核心构成:智能体(AI Agent) = 大语言模型 (LLM) + 记忆 (Memory) + 规划 (Planning) + 工具 (Tools)+反馈(Reflection),智能体核心组件介绍如下:

图1:智能体的核心组件
-
大语言模型(LLM) :推理是智能体的核心认知过程,涉及使用逻辑和可用信息来得出结论、进行推断和解决问题。
-
记忆 (Memory) 与上下文 (Context):包括用于即时对话的短期记忆以及通过外部数据库(如向量数据库)实现的、用于用于知识沉淀和经验累积,长期记忆对于智能体进行有效的推理和规划极为关键。
-
规划 (Planning):当智能体接收到一个模糊的、复杂需求时,规划模块(结合“思维树”等高级规划技术)会将其分解为一系列具体的、可执行的子任务。
-
工具 (Tools) / 函数调用 (Function Calling):智能体能够调用外部工具(如API、数据库)来感知环境、获取模型权重中缺失的实时信息(如天气)汇总后执行下一步动作。
-
反馈(Reflection):智能体通过评估自己先前行动的结果和中间步骤的质量后根据评估结果动态地调整后续规划。
2.2 RAG (检索增强生成)在企业落地最佳实践
检索增强生成(RAG)技术辅助智能体提升信息存储利用率,提高信息更新速度,增强内容生成的可追溯性,支持智能体的持续学习和迭代。RAG 技术结合了信息检索(Retrieval)和文本生成(Generation),通过从外部知识库中检索相关信息来辅助生成更准确和上下文相关的文本这不仅是解决知识性幻觉、“开卷考试”的条件,从根本上降低了其“凭空捏造”的风险。
在企业级的复杂场景中,Naive RAG即简单地将用户问题向量化后进行搜索效果往往不佳,迫切需要采用更先进的RAG技术栈解决召回率(Recall)和精准度(Precision)的瓶颈,企业级RAG优化主要核心步骤如下:
-
通过查询转换(Query Transformation)解决用户查询与文档间的“语义鸿沟”,涉及的关键技术包括HyDE (Hypothetical Document Embeddings)(即利用LLM生成假设性答案后向量化这个“假设答案”去匹配知识库的)、Step-Back Prompting(即将具体问题泛化以获取宏观背景进而为LLM提供解决具体问题所需的上下文的进行匹配)、Multi-Query(即将复杂问题分解为多个并行的子问题查询后再将所有召回的上下文汇总以提高召回率)。
-
结合向量检索(擅长理解“语义相似性”)和关键词检索(术语)的混合检索 (Hybrid Search) 能确保召回的全面性。
-
使用更轻量、更精准的“重排序模型” (Reranking)对初步召回的Top 50个文档进行重新打分排序结果进行精筛,最终仅将最相关的Top-K文档喂给LLM,从而在保证召回率的同时极大提升精准度,降低了LLM处理Token的成本。
随着RAG技术的发展,智能体在调用RAG技术时变得更加智能和高效,尤其是在面对复杂的需要多级拆解的问题时:
-
Agentic RAG:智能体(AI Agent)在执行任务时会自主决策按需调用RAG工具来查询外部知识,这时候RAG变成了智能体工具箱中一个可被动态编排的组件
-
GraphRAG :解决标准RAG无法处理的复杂“多跳问题”的利器,使用知识图谱(Knowledge Graph, KG)代替(或补充)向量数据库来存储精确的“关系”。通过图查询语言(如Cypher)在图谱上进行精确的关系遍历进行精确的“关系遍历”,而非模糊的语义相似性搜索,从而精准锁定答案从而精准锁定答案。对于企业内部高度依赖关系(如组织架构、供应链、资产依赖)的知识库,GraphRAG是实现深度推理问答的必要架构。
三、智能体成熟度模型:从简单工具到自主集群
腾讯研究院的《企业级智能体产业落地研究报告》提供了一个极具价值的 L1-L5 能力分级框架,模型的核心划分依据是智能体的自主性以及它与人类的协作关系,市场上主流智能体“绝大多数产品仍停留在 L1-L2 级别”,例如企业落地的“数字员工”主要是 L1 的智能知识库和 L2 的流程自动化助手,但是Gartner 预测到 2028 年70% 的 AI 应用将使用多智能体系统(L5)。
| 等级 | 名称 | 角色类比 | 核心特征 | 典型技术 | 典型应用 |
| L1 | 被动执行 | 问答客服 | “你问我答”:能理解指令,但依赖预设提示词或 RAG。 | Prompt + RAG | 智能客服、知识库问答 |
| L2 | 项目助理 | 工具使用者 | “你让我做,我就做”:能调用工具,但必须在预定义的工作流内执行。 | Workflow + RAG + Function Calling | 自动查订单、发邮件、会议预订 |
| L3 | 初级项目负责人 | 规划执行者 | “你说目标,我来规划”:能理解模糊任务,自主规划多步骤,动态调用工具。 | ReAct / Plan-and-Execute | 生成会议纪要、写周报、规划旅行 |
| L4 | 专业骨干 | 主动贡献者 | “我发现问题,我来解决”:能主动感知环境(如 CRM 数据变化),自主发起任务。 | 环境感知 + L3 能力 | 智能营销(发现客户流失风险并主动触达) |
| L5 | 领导者 | 团队协调者 | “我来组织”:能定义目标,并将复杂系统工程分解给其他 L2-L4 智能体(或人类)协同完成。 | Multi-Agent (多智能体) 协同 | 自动化软件开发、虚拟项目组 |
表1:L1-L5 能力分级框架
四、主流平台与框架对比:智能体构建者的工具箱
4.1 主流低代码平台对比:Coze VS Dify VS n8n
Coze 和 Dify 是原生智能体平台(以 LLM 为核心),n8n 是自动化平台(以流程为核心)。
| 平台 | 定位 | 核心优势 | 局限性 | 适合谁/适合场景 |
| Coze (扣子) | C 端创作者平台 | 免费、插件丰富、一键发布(飞书/豆包),对非开发岗极其友好。 | 私有化能力弱且有严格的资源限制(如总知识库容量10GB 、工作流超时10分钟),难以满足企业级需求。 | 互联网产品经理,快速验证 C 端创意和 Demo。 |
| Dify.ai | 开源+企业级 LLM 应用平台 | 平衡易用性与专业性。支持私有化部署、国产模型、知识库精细管理。 | 流程编排(Workflow)能力相对 n8n 较弱。 | 企业应用专家,在私有化/国产化环境中构建严肃的 B 端应用。 |
| n8n | 自动化工作流引擎 | 极其强大的流程编排(Workflow),连接器(Connector)极多。 | LLM 能力是“外挂”的,而非原生。智能体(Agent)概念较弱。 | 解决方案架构师,核心是“流程自动化”(RPA+AI)而非“智能体”。 |
表2:Coze VS Dify VS n8n平台对比
4.2 框架的核心思想:LangChain & LlamaIndex
-
LangChain:“链” (Chains) 和“智能体” (AI Agents) ,提供了构建复杂、多步骤智能体工作流所需的所有模块(如记忆、提示词、工具),适用于一个对话式智能体,需要执行多个步骤、调用多种工具并拥有复杂的“记忆”。
-
LlamaIndex:“高级 RAG” (Advanced RAG) ,当您的 RAG 需求变得复杂时(如需要层级检索、GraphRAG或融合多文档),LlamaIndex提供了更专业的解决方案。
五、智能体的“社会化”:协同、协议与互联
由于每个智能体往往只擅长特定领域的一件或者一类任务,复杂事件的完成需要多个不同功能的智能体一起完成,那么智能体之间如何协同、协议与互联的呢?不同公司纷纷推出了支持智能体互联的协议,可以分为上下文协议和智能体交互协议两类,其中前一类比较典型的有Anthropic的模型上下文协议(model context protocol,MCP),后一类比较典型的有智能体网络协议(agent network protocol,ANP)、谷歌的智能体对智能体协议(Agent2Agent,A2A)等。
5.1 新兴的AI协议“三件套”
以下是新兴的AI协议“三件套”核心协议草案(资料来源:中国信通院、中移/联通白皮书等):
- MCP (Model Context Protocol): “AI的USB-C接口”,解决的是Agent ↔ 工具的问题,基于JSON-RPC 2.0规范,定义了Agent 调用外部工具(API) 的标准。
- A2A (Agent-to-Agent) / ACP (Agent Control Protocol):“AI的HTTP协议”,解决的是 Agent ↔ Agent 的问题,A2A允许智能体通过一个标准化的“智能体名片”(Agent Card)来广播和发现彼此的能力,目标是实现统一 Agent 之间协作通信的标准,定义任务分配、角色扮演等。
- AG-UI (Agent User Interaction):“AI的WebSockets”,解决的是Agent ↔ 用户的问题,AG-UI定义了一个轻量级的事件流协议(基于HTTP/SSE)——用于传输如 TEXTMESSAGECONTENT(流式文本)、TOOLCALLSTART(工具调用开始)、STATE_DELTA(状态变更)等标准事件,目标是实现统一Agent 与前端用户界面的交互标准。
5.2 产业落地:应用场景蓝图

图2:智能体应用场景
上图清晰地展示了智能体在金融、零售、文旅、教育、医学、出行、互联网等14个行业上百个具有代表性的智能体应用场景(图片来源于《企业级智能体产业落地研究报告》),其核心价值还体现在识别出那些最迫切需要“自主生产力”的业务环节,并设计出“稳定可用”乃至“成熟好用”的智能体解决方案,推动技术从“可能”走向“可行”,从“可行”走向“价值”。
另外IDC数据显示,超过64%的中国企业已进入智能体的测试验证和采购培训阶段,预计到2028年中国企业级智能体应用市场规模将达到270 亿美元。与此同时,生成式AI正加速渗透各个领域,2028年预计中国生成式AI占AI市场总投资规 模比例将达到30.6%,突破300亿美元,五年年复合增长率(CAGR)高达51.5%。当前,软件与信息服务行业以41亿美元领跑投资规模,预计2028年将达149亿美元;此外,医疗健康、能源、制造、交通出行和教育五大行业投资增速值得关注,预计将保持在64.3%-67.2%的高速年复合增长率,展示出强大发展潜力。
六、结论
如果说去年是大模型的元年,那么今年是智能体的(AI Agent)的元年,与此同时,智能体正推动AI基础设施从“资源规模导向”转向“业务价值创造”。智能体需要的不再是通用的算力,而是对特定能力的支撑。智能体的规模化落地,对AI基础设施提出了四大全新要求:
-
Agent运行时的支撑:需要云原生架构(如容器和Serverless)来高效、弹性地承载Agent运行时环境。
-
长周期上下文的保持:需要专门的内存优化设计,以支持Agent保持长周期的记忆和上下文。
-
多智能体协同:需要支持Agent协同的架构以及支撑μs(微秒)级延迟的实时推理网络,以满足Agent间的连续决策需求。
-
安全与观测:需要安全沙箱来运行Agent的代码,并提供Agent的可观测性(Observability)来调试其复杂的决策链。
AI基础设施的演进加速智能体落地:反过来,新一代的AI基础设施正在通过提供“AI Agent服务平台”来加速智能体的落地。未来的AI基础设施不再仅仅是“卖算力”,而是会提供包括Agent运行时、安全沙箱、可观测性工具、乃至MCP协议栈等开箱即用的技术组件。这使得我们不必从零开始构建智能体的“身体”和“神经系统”,极大地降低了构建和部署智能体的门槛,让智能体的规模化应用成为可能。
七、如何系统的学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一直在更新,更多的大模型学习和面试资料已经上传带到优快云的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

2025年大模型应用呈现爆发式增长,根据工信部最新数据:
国内大模型相关岗位缺口达47万
初级工程师平均薪资28K(数据来源:BOSS直聘报告)
70%企业存在"能用模型不会调优"的痛点
真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!
02.大模型 AI 学习和面试资料
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)






第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

776

被折叠的 条评论
为什么被折叠?



