AI Agent入门到精通,这张“知识地图”就够了(建议收藏)!

AI Agent无疑是近几个月AI领域最炙手可热的话题之一。事实上,过去几年间,围绕Agent的研究与开发已经取得了突飞猛进的进展,大量成果涌现,为我们提供了丰富的知识储备和实践资源。

但面对如此快速的进展,我们该如何快速理清AI Agent的研究脉络,并构建起属于自己的认知框架?

最近,来自北京大学、伊利诺伊大学芝加哥分校、南洋理工大学、腾讯优图实验室等全球多所顶尖高校和研究机构的学者们写了一篇综述性文章(https://arxiv.org/abs/2503.21460),系统性地回顾了AI Agent的研究现状,为我们构建了一个从Agent诞生、拥有记忆、进行规划决策、执行任务、与其他Agent协作,到最终实现自我进化和应用的完整概念框架。

我们认为,这篇综述文章为AI Agent领域绘制了一幅“知识地图”,提供了一个全面且结构化的索引,系统性地梳理了当前Agent研究的关键路径与成果。

对于希望构建或完善自身Agent知识体系、乃至寻求创新突破口的开发者和研究者而言,这份框架提供了极佳的起点和参照。

正因如此,我们特别编译整理了这篇重要文献的核心内容,希望能帮助大家更高效地理解和探索AI Agent的世界。

01 – 配置文件定义

每一个Agent在投入运行之前,都要经历一个“诞生”阶段,即配置文件定义。这决定了Agent的“先天特质”和“人格”,为后续行为打下基础。

静态配置

可以理解为生成一个Agent实例,就像在游戏里创建一个角色。此时需要确定这名Agent用哪个大型语言模型作为“大脑”,以及基本的运行框架。创建阶段还包括赋予Agent一个角色设定(Profile),即定义它的身份、属性和行为模式。

通过人工精心设定的静态配置,Agent的行为会严格遵循预先设计的规则和风格,以确保在特定领域的一致性和可控性。

很多多Agent系统会预先定义好几类固定角色。例如像 Camel、AutoGen 和 OpenAgents 等框架,会通过预定义的对话角色(例如用户代理和助手代理)来协调人机协作,通过结构化对话执行任务。

而像 MetaGPT、ChatDev 和 AFlow 等框架,则展示了基于角色的协调模式,通过设定和协调具有特定技术或职能的角色(如 ChatDev 框架中设定的产品经理、程序员、测试员等)与确定性交互协议,来协作完成特定任务(如 ChatDev 专注于代码开发)或将这一范式通过结构化角色编排扩展到更广泛的通用任务解决(如 MetaGPT 和 AFlow)。

动态配置

除了静态配置,还有一种动态初始化的方式。动态Profile会通过参数化的方法批量生成一系列多样化的Agent配置。这有点像在模拟社会中一次性创造出性格各异的一群“NPC”。

比如在初始化时随机赋予每个Agent不同的性格倾向、知识背景或者价值观,让整个Agent群体呈现丰富的多样性。研究者通过模板提示或从潜在空间采样的方法来生成这些差异,使Agent在群体中表现出复杂的社交动态。

这种方式常用于模拟人类社群行为的研究:例如让几十个性格各异的AI代理在一个虚拟小镇中互动,一段时间后观察是否会涌现出类似人类社会的行为模式。

无论静态还是动态的Profile设置,都相当于在Agent启动前给它“奠定人格”和“初始记忆”,规定了它的决策边界和交互风格。此外,DSPy 可以进一步优化代理配置文件初始化的参数。

02 – 记忆机制

一个Agent光有初始设定还不够,要让它在执行复杂任务时表现出连贯智能,必须赋予它记忆机制。记忆让Agent可以记住上下文、积累经验,并在后续步骤中调用这些信息。

短期记忆

类似于人类的工作记忆或缓存,用于储存对话的上下文和最近收到的环境反馈。短期记忆维持的是任务执行过程中的临时信息。例如,当Agent与用户多轮对话时,短期记忆让它记得“之前用户提过的要求”,从而在对话后面的回答中不跑题。

在很多Agent框架中,都实现了短期记忆功能:比如ReAct系统通过让Agent回顾自己的思考步骤来进行反思,ChatDev让软件Agent记住代码修改的历史,Graph-of-Thoughts框架中Agent会保留推理链,等等 。

短期记忆提高了Agent的推理深度和连贯性,但它也像人脑的短暂记忆一样,易逝且容量有限——一旦任务完成或对话结束,短期记忆中的内容往往就被清空,不会长期保留 。

长期记忆

实践中,长期记忆系统能够系统性地归档智能体的中间推理轨迹,并将其转化为可复用的“资产”。

这种转化过程体现在几种主要范式中:一是构建编码了程序性知识的技能库,例如Voyager项目在Minecraft游戏中实现的自动化技能发现,或GITM项目采用的基于文本的知识库;

二是建立存储了成功或失败模式的经验库,如ExpeL项目中的精炼经验池,或是Reflexion框架用于优化试验的记忆机制;

三是通过工具合成框架实现工具的组合与自适应演化,TPTU的自适应工具组合和OpenAgents的自扩展工具包便是此类代表。

知识检索

知识检索本身也被视为一种重要的记忆形式,它将外部知识源整合到生成过程中。当前的实现包括:通过文本语料库(如经典的RAG)或结构化知识图谱(如GraphRAG)进行静态知识定位;

通过结合智能体对话与外部查询进行交互式检索,如Chain of Agents所示,其中智能体间的短期通信能触发上下文相关的知识获取;以及将逐步推理与动态知识获取相结合的集成推理检索方法,如IRCoT和Llatrieval系统所展示的那样,更有KG-RAR等高级变体。

03 – 计划与决策

有了角色和记忆,一个Agent还需要计划与决策能力,才能自主完成复杂任务。这里的“计划”指的是把最终目标拆解成具体可执行的步骤,并在执行过程中不断调整策略。

任务分解

面对复杂问题时,Agent会将其拆解为更小的子任务来逐一解决 。最简单的分解方式是“链式规划”:Agent先想出一个从头到尾的步骤链,然后按顺序依次完成每个子任务。

链式规划实现简单,但缺点是一旦前面步骤有错误,后面就会层层传递而且中途不易更改。为此,有研究让Agent采用动态规划,不预先固定整个计划,只生成当前最需要做的下一步,然后执行、获取反馈、再决定后续步骤 。

除了线性链条,有些任务需要更复杂的决策树。于是出现了“树状规划”(Tree-of-Thought)的方法:Agent在脑海中探索一棵决策树,分支出多种可能的解题路径 。

它可以同时尝试不同思路,如果某条路径走不通,还能回溯(backtrack)到之前的节点,改走其他路径 。树状规划让Agent拥有“试错-纠错”的能力,非常适合那些需要反复摸索的复杂任务 。

一些高级方法甚至把强化学习引入其中,例如利用蒙特卡洛树搜索(MCTS)来帮助Agent在决策树中选择最佳路径 。

反馈驱动迭代

设置Agent根据反馈不断改进自己的计划。这种反馈可以来自多方面——环境的反应、用户的提示、Agent自身的反思,或其他Agent的建议。通过反馈,Agent可以发现计划中的不足并及时调整。这种边执行边学习的机制让Agent的决策更具适应性和稳健性 。

04 – 行动执行

有了详细的计划蓝图,Agent还需要真正执行行动,将想法落地。这一步听起来理所当然,但对于AI Agent而言,执行行动意味着两件事:一是调用外部工具或接口去完成某些它自身做不到的操作,二是如果在物理世界行动则要能控制实体或设备

工具使用

大型语言模型本身擅长的是文本推理和生成,但并不擅长精确计算、实时查询等。为了让Agent具备更广泛的能力,我们可以为它配置各种插件工具

例如,可以让Agent调用计算器进行复杂运算、访问互联网获取最新资讯、调用日历安排日程,甚至执行代码。关键的问题在于:Agent需要决定什么时候该用工具,以及选用哪一个工具 。

Agent应在不确定自己答案是否可靠或者遇到特定功能需求时考虑调用工具。这就像人遇到不会的问题会查资料一样,Agent如果对某步决策信心不足,可以请求帮手。

工具选择同样重要——Agent需要理解当前有哪些工具可用、各自擅长什么,然后挑选最合适的那个。有些框架通过简化工具文档或示例,让Agent更容易明白每个工具的用法和能力边界,从而做出正确选择。

实体交互

当Agent被赋予控制物理设备或在现实环境中行动的职责时,就涉及实体世界的交互 。这类执行要求Agent能够理解物理环境的反馈,并据此调整动作 。这些都超出了纯文本生成的范畴,需要结合现实常识和环境模型

研究者为此探索了让LLM Agent掌握一些物理知识和社交常识的方法 ,或者通过与其他Agent协作来完成需要实体互动的任务。

05 – 多智能体协作:团队作战与通信调度

当任务复杂到需要不同专业的知识,或者规模大到一个Agent忙不过来时,我们就需要构建多智能体协作的系统。多Agent协作主要是调度和通信这两个关键机制:如何分配任务、以及Agent之间如何交流信息。

首先,不同协作架构在组织形式上有所区别,主要分为集中式去中心化混合式三种 :

集中式协作

集中式架构下,会有一个充当“总控”的中心Agent,负责全局的任务分配和决策整合 。其它的子Agent听从这个中心指挥,只与中心通信,而不直接彼此对话 。

这种方式优点是协调统一,适合对时序和配合要求极高的场景,但缺点是一旦中心出问题,整个系统可能瘫痪,而且过于依赖单点智慧可能限制创造力。

典型的实现如Coscientist框架,把人类操作者当作中央调度者,亲自分配实验任务给多个AI助手 ;MetaGPT也采取集中式,由一个Manager代理分配软件开发各阶段的子任务给不同角色的Agent。

在这些系统中,任务调度由中心Agent完成:它负责把大任务拆解成子任务,指派给合适的Agent,并收集结果汇总。消息传递方面,所有沟通都通过中心节点,与其它Agent不能私下沟通,以保证信息流单一、决策链清晰 。

去中心化协作

在去中心化协作架构中,不存在绝对的中心化领导,所有智能体(Agent)均以对等方式直接通信并共同参与决策过程,形成一个复杂的网状交流结构。

这种模式下,信息传递发生在任意智能体对之间,而任务的调度与分配往往并非由中央指定,而是通过智能体间的竞争、投票(例如MedAgents项目中,领域专家智能体在独立提出和修改决策后通过最终投票达成共识)或预设约定机制来自发实现。

其核心优势在于系统的鲁棒性和灵活性——没有单点故障,单个智能体的失败不会导致全局崩溃,同时,多个智能体并行探索可能催生出更多元的解决方案。

结构化编辑/迭代完善协议示例

项目名称项目内容
ReConcile协调智能体进行相互响应分析和置信度评估,以优化最终答案。
METAL使用专门的文本和视觉修订智能体提升特定任务(如图表生成)质量,修订信号可来自外部知识库。

灵活对话/推理观察协议示例

项目名称项目内容
AutoGen实现群聊框架,支持多智能体通过迭代辩论来完善决策。
MAD / MADR运用结构化通信协议,解决智能体固化于初始想法的问题,使其能相互批判不合理主张并完善论证。
MDebate通过在坚持己见与协作完善之间进行策略性切换来优化共识构建。

混合式协作

混合式协作旨在融合中心化的高效管控与去中心化的灵活创新,通过设立局部领导或分层控制结构来实现。这种协作可以通过两种主要模式实现:一种是静态系统,其中协作模式与不同模式(中心化/去中心化)的组合方式是预先定义好的固定结构。

项目名称系统特点
CAMEL将智能体组织成内部去中心化的角色扮演小组,同时通过更高层级的集中治理进行协调。
AFlow设计了明确的三层体系:集中的战略规划、去中心化的战术谈判、市场驱动的资源分配。
EoT形式化定义了多种固定协作拓扑(如总线、星形、树形),旨在将网络结构与特定任务特性精确匹配。
  • 另一种则是更前沿的动态系统,它们引入了诸如神经拓扑优化器等机制,能够根据实时的性能反馈或任务变化,动态地调整和重构智能体间的协作结构,实现自适应优化。
项目名称系统特点
DiscoGraph通过教师-学生框架实现可训练协作,利用矩阵值边缘权重进行自适应空间注意力分配。
DyLAN先评估智能体重要性得分识别关键贡献者,然后动态调整协作结构以最高效完成任务。
MDAgents根据任务复杂度(低、中、高)动态指派协作模式,简单任务用单个智能体,复杂任务自动切换到分层协作结构。

06 – Agent 的自我进化

如果说多Agent协作让智能体“群策群力”,那么自我进化则让每个Agent能够“自我提升”。理想状态下,我们希望Agent越用越聪明,能够根据经验不断优化自身。这正是Agent生命周期中**演进(Evolution)**阶段关注的核心 。

Agent的进化可以从多个维度来看,主要包括:自主优化学习、群体共同进化,以及借助外部资源来提升 。

自主优化与自我学习

智能体(Agent)可以通过自身的尝试和反馈,不断提高能力,从而减少对人类监督的依赖。这方面的机制涵盖了多种策略,如自监督学习、自我反思、自我纠错以及自我奖励机制等。

简单来说,就是让智能体扮演自己的老师和裁判。例如,在自监督学习方面,智能体可以生成自己的练习数据进行训练,比如通过动态调整输入信息的遮蔽方式让模型预测缺失部分来改进自身参数。

在解决问题时,智能体可以先给出初步答案,然后启动自我反思与纠错流程来检验和修正错误,一些研究也让AI反复进行自我验证,如同检查推理步骤一般(如利用自我验证技术回顾性地评估和修正输出),这有助于减少错误的输出和“幻觉”现象。

此外,通过引入内部自我奖励机制,智能体能为自己的良好表现“打分”,并以此强化有效的决策策略(即自我强化学习)

自监督学习示例

技术核心内容
动态输入遮蔽让模型通过预测被遮蔽(隐藏)的部分来学习和改进参数。
SE (Self-Evolving Learning)通过动态调整掩码(遮蔽方式)和学习策略来增强预训练效果。
DiverseEvol通过提升生成练习数据的多样性来优化模型的指令调整能力。

自我反思与自我纠错示例

技术核心内容
SELF-REFINE应用迭代式的自我反馈(生成答案 -> 自我批评 -> 根据批评修正答案)来改善最终输出。
STaR / V-STaR专注于训练模型具备验证和精炼自身推理过程与解题步骤的能力。
自我验证 (Self-Verification)让智能体反复检查自身的推理或输出步骤,如同人类检查工作一样,以回顾性地评估和修正,减少错误与“幻觉”。

自我奖励/自我强化学习示例

技术核心内容
对比蒸馏 (Contrastive Distillation)利用技术(对比蒸馏)让智能体通过自己生成的奖励信号进行自我对齐(使其行为符合预期)。
RLC利用评估结果和生成内容之间的差距,结合强化学习策略来促进智能体的自我改进。
模拟奖励信号 (Simulated Reward Signals)智能体在达成目标或避免错误时,能模拟产生内部的正反馈(奖励)信号,以此强化好的决策。

多Agent共同进化

当多个智能体(Agent)一起学习时,会产生“共同进化”的效果。通过彼此互动,智能体可以在合作中共享知识、协调行动,在竞争中发现弱点、改进策略,从而共同提高。

多智能体合作学习示例

技术核心内容
CORY 框架大语言模型通过角色交换(轮换角色思考)机制进行迭代改进,以增强策略。
ProAgent智能体通过推测队友意图并更新自身信念来动态适应协作任务,能有效增强零样本协调能力。
CAMEL 框架作为角色扮演框架,让沟通型智能体能利用初始提示自主协作,提升任务解决效率。

多智能体竞争进化示例

技术核心内容
红队LLMs (Red Teaming LLMs)智能体在对抗性互动(如模拟攻击)中动态进化,目的是发现和修复系统(如大模型)的漏洞。
多智能体辩论 (如 MAD 框架)多个智能体通过多轮次的相互批评和完善论点,来提升各自的推理能力和论证的事实准确性。
(类比GAN机制)通过对抗性互动(类似“军备竞赛”),促使参与各方不断改进,最终共同提高能力。

借助外部资源进化

智能体的提升不光可以自给自足,也可以借力外部的知识和反馈。一方面,智能体可以吸收结构化知识来武装自己,例如将专业的知识图谱、行业规则引入,让其在决策时参考这些权威信息,从而减少错误和凭空猜测。

智能体吸收结构化知识示例

技术核心内容
KnowAgent将动作知识库融入规划模块,以约束决策路径并减轻“幻觉”现象。
WKM (世界知识模型)综合利用专家知识与过往经验知识来指导规划过程,能显著降低无效行动的发生。

智能体利用外部反馈示例

技术核心内容
CRITIC 框架智能体能够调用外部工具来审查和修正自身的输出,以提高准确性并减少内容上的不一致。
STE 框架通过模拟试错、想象和记忆机制来增强对外部工具的学习和使用能力,实现更有效的工具调用和长期适应。
SelfEvolve采用两步框架,让智能体能够根据代码实际执行结果的好坏反馈,来自行生成和调试代码。

07 – 测试与评估

当我们构建了一个强大的Agent系统后,面临的一个实际问题是:如何评估它的表现好坏?

评估一个复杂的智能Agent不像给学生考试那么简单,因为Agent的能力是多维度的。为此,研究者设计了各种基准测试(Benchmark)和数据集来全面测量Agent的智能水平 (AGent.pdf)。

通用能力评估

早期AI系统常用成功率或准确率这类单一指标,但对于具备推理、规划、协作能力的Agent来说,需要更立体的考察。现代评测框架倾向于多维度分析Agent的表现,比如是否能够高效地计划、多步推理正确率、适应新环境的能力等等。

多维度能力评测

测评框架主要内容
AgentBench覆盖8个交互式环境, 评估代理在多场景下的复杂推理与交互能力。
Mind2Web专注于Web交互场景, 对137个真实世界网站进行测评, 任务横跨31个领域。
MMAU通过3,000+跨领域任务, 将智能分为五大核心能力并进行细粒度能力映射。
BLADE关注科学发现场景, 通过追踪专家验证工作流程的分析决策模式来评估代理表现。
VisualAgentBench侧重多模态基础代理的统一基准, 包括物化交互、GUI操作及视觉设计等复杂视觉任务。
Embodied Agent Interface提供模块化推理组件, 如对象解释、子对象分解等, 为嵌入式系统提供细粒度错误分类。
CRAB通过图形化评估与统一的Python接口进行跨平台测试。

动态和自我进化的评估范式

测评框架主要内容
BENCHAGENTS借助LLM代理自动创建基准, 用于规划、验证和测量设计, 支持快速容量扩展。
Benchmark Self-Evolving提出六种重构操作, 能动态生成测试实例来对抗捷径偏差, 保证评测结果的时效性和鲁棒性。
Revisiting Benchmark (TestAgent)利用强化学习机制与代理交互, 用于面向特定领域的自适应评估。
Seal-Tools设计了1,024个嵌套实例的工具调用场景, 用于评估代理在调用外部工具过程中的泛化与稳健性。
CToolEval涉及14个领域、398个中文API调用的测评数据集, 主要用于检验代理对中文工具/接口的调用正确性。

特定领域评估

除了通用测试,还有针对特定行业或场景的模拟评估。例如医疗诊断Agent会有一套医学问答和病例推理测试,编程Agent有代码生成和错误调试测试,机器人Agent则在仿真环境中考核导航和操作能力。通过定制接近真实应用的场景,评估结果才能反映Agent在该领域的可靠程度。

特定领域的能力测试

测评框架主要内容
MedAgentBench测试医疗保健应用,包含在符合FHIR环境中由临床医生设计的任务。
AI Hospital通过多智能体协作模拟临床工作流程来测试医疗保健应用。
LaMPilot用于评估自动驾驶系统,通过代码生成基准测试连接到LLM自动驾驶架构。
DSEval评估数据科学能力,涵盖从数据处理到模型部署的生命周期管理。
DA-Code与DSEval一同评估数据科学能力
DCA-Bench根据实际质量问题评估数据集管理代理。
TravelPlanner为旅行计划场景提供沙盒环境,测试多步骤推理、工具集成和约束平衡能力。
MLAgent-Bench测量机器学习工程能力,模拟需要优化端到端管道的类似 Kaggle 的挑战。
MLE-Bench与MLAgent-Bench一同测量机器学习工程能力(文本未详细区分具体侧重)。
AgentHarm以安全为中心,包含多种恶意代理任务,评估LLM在多步骤工具使用场景中的滥用风险。

真实世界环境模拟

测评表框架主要内容
OSWorld构建可扩展的真实计算机操作系统环境 (Ubuntu/Windows/macOS),支持多种应用程序任务。
TurkingBench使用众包方式获取的HTML界面来评估微任务的执行能力。
LaMPilot为自动驾驶场景引入了可执行代码生成的基准测试。
OmniACT提供大量的 (32K) 网页和桌面自动化实例,包含视觉基础要求。
EgoLife通过大型多模态自我中心数据集模拟人类日常活动,测试代理在动态环境中的多种能力。
GTA整合真实世界工具和多模态输入(如图像、网页)以评估现实世界中的问题解决能力。

协同与对抗评估

对于多Agent系统,评估还得看它们的协作效果或对抗能力。一些研究搭建了协同任务环境,让多个Agent一起完成,看团队绩效如何;还有对抗性的环境,让Agent跟人类或其他AI对战,测试其博弈策略。协同评测关注的是团队配合度、通信效率等,而对抗评测则关注Agent在复杂竞技中的策略演化和适应性。

多代理系统基准测试

测评表/工作名称简要描述
TheAgentCompany开创性地使用模拟软件公司环境进行企业级评估,测试网页交互和代码协作能力。
AutoGen 和 CrewAI 对比分析通过机器学习代码生成挑战进行对比分析,为多智能体系统评估建立方法论标准。
MLRB为评估多智能体协作能力设计了7个竞赛级别的机器学习研究任务。
MLE-Bench通过71个真实世界的竞赛来评估Kaggle风格的模型工程能力。

08 – 工具与部署生态

要让Agent走出实验室,良好的工具生态基础设施是不可或缺的。这方面可以分为三部分:Agent用的工具,Agent自己创造的工具以及开发者用来管理Agent的工具。

正如前文提到,Agent可以利用外部工具来增强能力。现在已经有很多现成的插件接口,比如浏览器接口、数据库查询接口、各种API服务等等,可以被集成进Agent系统。开发者也在为Agent定制更多专用工具,以弥补目前通用工具的不足。

知识检索工具

工具名称简要介绍
搜索引擎 (通用)帮助 LLM 代理快速访问最新的、其训练知识库之外的实时信息。
WebGPT成功地结合了在线搜索引擎和 LLMs,并整合了商业 API。
WebCPM开发了一个网络搜索界面,并用其构建了第一个中文长篇问答(LFQA)数据集。
ToolCoder使用 DuckDuckgo 搜索常用公共库,对不常用或私有库则使用 BM25 分数进行检索。

计算工具

工具名称简要介绍
Python 解释器 (通用)帮助 LLM 代理处理复杂的代码执行任务。
数学计算器 (通用)帮助 LLM 代理处理精确的或复杂的计算任务。
AutoCoder设计了一个与编码执行结果交互的数据集,以促进基于 LLM 的代码生成。
RLEF通过端到端强化学习框架使 LLM 能从代码执行者那里学习反馈,以提高代码生成性能。
CodeActAgent一个自动代理系统,能根据与代码解释器的交互来更新其动作。
Toolformer集成包括计算器在内的一系列工具,显著提高模型在数学计算等任务中的性能,且不影响模型通用性。
ART使 LLM 在解决复杂任务时能调用外部工具(如计算器),擅长数学推理和复杂计算任务。

API 交互工具/系统

工具/系统名称简要介绍
RestGPT结合 LLM 与 RESTful API 来探索更现实的应用场景,并提出了 RestBench 用于评估其性能。
GraphQLRestBench构建了一个包含自然语言和函数调用序列的数据集,用于评估现有开源 LLM 进行 API 调用的能力。

传统的工具通常是给人用的,而Agent直接调用可能不够便利或高效。因此出现了一些让Agent“造工具”的探索:例如,当现有工具不能满足需求时,Agent可以自主编写一段代码(等于创造了一个新工具)来完成子任务,然后下次需要时重复使用。

LLM Agent创建的工具

工具/框架名称简要介绍
CRAFRT通过收集特定任务的GPT-4代码解法并将其抽象为代码片段来创建专用工具集,为工具创建和检索提供灵活框架。
Toolink通过创建工具集,然后运用解决方案链(CoS)方法整合工具的规划和调用来执行任务分解。
CREATOR提出一个包含创建、决策、执行和反思四个阶段的框架,使LLM代理能够创建工具并提高输出结果的稳健性(鲁棒性)。
LATM提出一个两阶段框架,让LLM分别充当工具制造者和使用者,并包含工具缓存机制以提高效率、降低成本同时保持性能。

前面我们介绍了 LLM Agent可以调用和自己创造的工具,接下来我们将整理用于部署、开发、运维这些 LLM Agent的相关工具、框架和协议。

用于部署LLM Agent的工具/框架/协议

工具/框架/协议名称简要介绍
AutoGen一个开源框架,使开发人员能够使用可定制的、对话式的多个代理来构建LLM应用程序。
LangChain一个高度可扩展的开源框架,用于构建LLM应用程序,允许用户创建自定义模块和工作流以满足特定需求。
LlamaIndex一个服务于大型模型应用的数据框架,允许用户基于本地数据构建LLM应用,并提供了访问/索引数据、检索/重排及构建查询引擎的工具箱。
Dify一个开源LLM应用开发平台,允许用户在画布(canvas)上构建和测试AI工作流,也能监控和分析应用日志及性能以进行持续改进。
Ollama一个用于构建LLM代理的平台,同时提供可观察性和监控支持,允许团队实时跟踪模型性能。
MCP (模型上下文协议)一种开放协议,标准化应用程序为LLM提供上下文的方式,用于创建LLM与数据源间的安全链接及构建代理和工作流。
MCP-Agent一个使用 MCP 来构建代理的简单框架。

09 – 安全挑战

对抗攻击

恶意方可能通过精心设计的输入诱导Agent出错甚至做出有害行为,这称为对抗攻击。例如,在输入中嵌入特殊扰动(对人类无害但对AI是陷阱)让Agent产生错误判断 。

再比如,通过一系列巧妙的提示,诱使Agent违反预设原则输出不良内容,这就是常说的提示劫持(Prompt Jailbreaking)。这些攻击会损害Agent决策的可靠性和安全性,目前研究者也在开发对应的防御策略,如输入过滤、响应验证等。

后门攻击

更阴险的是在Agent的底层模型中种下“后门”。攻击者如果有机会在模型训练阶段做手脚,可能让模型记住一个隐秘的触发模式——一旦日后输入含有该模式,Agent就会按照攻击者预设输出特定内容或执行特定动作 。这种攻击隐藏性强,难以发现。防御手段包括严格控制训练数据来源、训练后对模型进行安全审计等。

多Agent协作安全

当多个Agent协同时,还会出现协作攻击的风险。如果其中一个Agent被攻破或本身不可靠,它可能向其他Agent传递错误信息,导致整个团队决策失误。因此在多Agent系统中,需要设计机制来检测异常行为的Agent,必要时将其隔离,防止谣言或错误在Agent网络中蔓延。

附录:Agent在各行业的中的应用案例合集

为了方便读者查找原始文献,我们也附上了原文中的引用序号

Agent在科学研究领域的应用

项目/应用名称领域简要描述
通用科学与实验
SciAgents [266]通用科学使用多个专门的LLM Agent(如“本体论者”、“科学家”、“批评家”)协同生成和完善科学假设。
Curie [267]通用科学构建了一个多Agent框架(“架构师”Agent设计实验,“技术员”Agent执行)来自动化、严谨地进行科学实验。
AgentReview [268]通用科学提出一个基于LLM Agent的框架来模拟学术同行评审过程,为改进论文评估协议提供见解。
化学、材料科学与天文学
ChemCrow [269]化学将LLM与18个化学专业工具集成,使其能够自主规划和执行化学合成任务。
AtomAgents [270]材料科学一个考虑物理知识的多Agent系统,用于自动化合金设计(规划者Agent分解任务,批评家Agent验证)。
D. Kostunin et al. [271]天文学为切伦科夫望远镜阵列开发的AI助手Agent,用于自主管理望远镜配置数据库和生成数据分析代码。
生物学
BioDiscoveryAgent [273]生物学通过解析文献和基因数据库,提出可能阐明特定生物通路的基因敲除或编辑实验设计。
GeneAgent [274]生物学使用自我修正循环从生物医学数据库中发现基因关联,并通过与已知基因集交叉检查提高可靠性。
RiGPS [275]生物学开发了一个具有基于实验的自我验证强化学习框架的多Agent系统,用于增强单细胞数据集中的生物标志物识别任务。
BioRAG [211]生物学开发了一个基于多Agent的RAG系统来处理生物学相关的问答,其中包含检索信息的Agent和自我评估结果的Agent。
科学数据集构建
PathGen-1.6M [276]科学数据集构建通过多Agent协作(视觉模型选区、LLM生成描述、其他Agent优化)生成大规模病理图像数据集。
KALIN [277]科学数据集构建开发多Agent协作框架,以分块研究文章为背景生成高质量的领域LLM训练语料库(科学问题),并利用知识层次结构进行自我评估和进化。
GeneSUM [278]科学数据集构建自动维护基因功能描述知识数据集,包含阅读基因本体的Agent、检索文献的Agent和生成摘要的Agent。
医学
AgentHospital [281]医学创建一个虚拟医院,由LLM驱动的医生、护士和患者Agent互动,模拟从分诊到治疗的完整医疗流程。
ClinicalLab [282]医学引入了一个全面的基准测试和一个用于多科室医疗诊断的Agent,覆盖多个医学专科。
AIPatient [283]医学创建由LLM驱动的逼真患者模拟器,利用结构化医学知识图谱和推理RAG流程进行可信的医患对话。
CXR-Agent [284]医学结合视觉语言模型和LLM来解读胸部X光片,并生成带有不确定性评估的放射学报告。
MedRAX [285]医学集成多种工具(OCR、分割模型、LLM),解决需要同时参考患者病史和影像的复杂胸部X光病例。

Agent在游戏领域的应用

项目/应用名称领域简要描述
游戏玩法
ReAct [33]游戏在文本或具身环境中,促使LLM将推理和反思整合到行动生成中,以增强决策能力。
Voyager [35]游戏在《我的世界》中引入了一个由LLM驱动的终身学习Agent,可持续探索游戏世界。
ChessGPT [287]游戏基于混合游戏-语言数据的自主Agent,用于棋盘状态评估和国际象棋对弈。
GLAM [288]游戏在BabyAI-text环境中构建Agent,使用策略选择行动,并通过在线强化学习进行训练。
游戏生成
CALYPSO [289]游戏创建LLM Agent作为助手,在《龙与地下城》等游戏中帮助构建引人入胜的叙事。
GameGPT [290]游戏利用双Agent协作和分层方法,使用多个内部字典来自动化和增强游戏开发过程。
Sun et al. [291]游戏在《一千零一夜》中创建互动式讲故事游戏体验,结合指令性语言模型和图像生成来塑造叙事和世界。

Agent在社会科学领域的应用

项目/应用名称领域简要描述
经济学
Econagent [292]社会科学使用提示工程创建模拟人类决策或宏观经济模拟的Agent。
TradingGPT [293]社会科学提出一个用于金融交易的多Agent框架,通过分层记忆结构和辩论机制模拟人类决策过程。
CompeteAI [294]社会科学利用LLM Agent模拟一个虚拟城镇中餐馆和顾客的互动,以提供符合社会学和经济学理论的见解。
心理学
Ma et al. [295]社会科学研究使用基于LLM的对话Agent进行心理健康支持的心理效应和潜在益处。
Zhang et al. [296]社会科学考察具有独特特质和思维过程的LLM Agent如何复制类似人类的社会行为(如同众效应)。
TE [297]社会科学使用LLM Agent模拟心理学实验,揭示语言模型在复制特定人类行为时可能存在的系统性偏差。
社会模拟
Generative agents [30]社会科学在交互式沙盒环境中引入多Agent交互模型,利用LLM Agent模拟各种情境下的逼真人类行为。
Liu et al. [298]社会科学提出一种训练范式,使LLM能够从涉及多个LLM Agent的模拟社会互动中学习。
S3 [299]社会科学开发基于LLM的多Agent系统,确保Agent在社交网络中的行为与真实人类高度相似。

Agent在生产力工具领域的应用

项目/应用名称领域简要描述
软件开发
SDM [300]生产力工具引入一个自我协作框架,引导多个LLM Agent在代码生成任务上协同工作,以应对复杂的软件开发挑战。
ChatDev [301]生产力工具提出一个由聊天驱动的软件开发框架,指导Agent沟通的内容和方式,模拟软件开发流程。
MetaGPT [27]生产力工具通过元编程方法将人类工作流程(标准化操作程序SOPs)融入LLM驱动的多Agent协作中,以增强协调性。
推荐系统
Agent4Rec [302]生产力工具使用集成了用户画像、记忆和行动模块的LLM Agent来模拟推荐系统中的用户行为。
AgentCF [303]生产力工具将用户和物品都视为LLM Agent,引入协作学习框架来模拟推荐系统中的用户-物品交互。
MACRec [304]生产力工具直接开发多个Agent来协同完成推荐任务。
RecMind [305]生产力工具利用LLM Agent整合外部知识,并精心规划工具的使用,以实现零样本个性化推荐。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值