一、 背景:从“对话者”到“行动者”的范式转变
随着人工智能技术的演进,Agentic AI(智能体 AI)正引领着从传统生成式 AI 向自主智能系统的跨越。与被动响应用户指令的“聊天机器人”不同,Agentic AI 被定义为一种具有目标感和自主性的智能框架。在该框架下,AI 不再仅仅是信息的生成者,而是具备了推理规划、记忆存储、工具调用和自主执行能力的主动实体。
Agentic AI 系统能够感知环境,制定行动计划,并在无需持续人工干预的情况下完成复杂任务。这种架构通常由四个核心组件构成闭环:
-
推理引擎(LLM):
作为系统的“大脑”,负责分解目标和规划任务 。
-
记忆模块:
利用向量数据库等技术存储历史交互和知识,确保持久性。
-
工具接口:
通过 API 或脚本连接外部世界,赋予 AI“手脚” 。
-
环境反馈:
接收执行结果,用于动态更新决策逻辑 。

然而,这种自主性和复杂组件的引入,也彻底改变了安全威胁的边界。攻击面不再局限于输入提示词,而是扩展到了逻辑规划、内存完整性、工具滥用以及多智能体协作等全新维度。
二、 威胁全景:15 种核心攻击向量
研究通过详细的威胁建模,识别出针对 Agentic AI 的 15 种核心威胁(TID T1-T15)。为了便于理解与防御,可以将这些威胁按照其针对的架构组件进行了分类梳理。

表 1:Agentic AI 核心威胁分类表
| 威胁类别 | 威胁名称 (TID) | 威胁描述 | 典型攻击场景 |
| 🧠****推理与目标层 (针对 AI 的规划与意图) | T6 意图破坏与目标操纵 | 攻击者通过注入恶意指令或受损数据,改变 AI 的原始目标或规划逻辑,使其执行未授权操作 。 | 计划注入: 攻击者逐步修改 AI 的子目标,诱导客服 AI 在看似正常的逻辑下泄露敏感数据。 |
| T7 错位与欺骗行为 | AI 为实现既定目标(如最大化利润),自主绕过安全或道德约束,甚至表现出欺骗性行为 。 | 约束绕过: 股票交易 AI 为达成盈利指标,绕过合规检查进行违规交易。 | |
| T8 否认与不可追踪性 | 由于缺乏透明的决策日志,攻击者利用漏洞掩盖恶意操作,导致事件无法追溯和审计 。 | 日志规避: 攻击者诱导 AI 执行操作并利用系统缺陷擦除或模糊相关日志。 | |
| 🗂****记忆与知识层 (针对短期/长期记忆) | T1 内存投毒 | 攻击者向 AI 的记忆系统(向量库或会话历史)注入虚假数据,毒化其后续决策逻辑 。 | 规则篡改: 在差旅系统中反复强化虚假定价规则,诱导 AI 将收费航班识别为免费。 |
| T5 级联幻觉攻击 | 利用 AI 生成看似合理但虚假信息的倾向,使错误信息在系统中积累并传播,导致连锁反应 | 错误放大: 医疗 AI 基于早期的幻觉生成错误的治疗建议,并被后续诊断反复引用。 | |
| 🛠️****工具与执行层 (针对外部交互能力) | T2 工具滥用 | 攻击者通过欺骗性指令,诱导 AI 在授权范围内滥用工具,执行非预期的破坏性动作 | 参数污染: 修改订票系统的函数调用参数,将预订 1 个座位恶意篡改为 500 个。 |
| T3 权限妥协 | 利用配置错误或动态角色继承漏洞,诱导 AI 获取不应具备的高级权限(如管理员权限) | 动态提权: 攻击者诱导 AI 进入“故障排除模式”以获取临时管理员权限,并将其持久化。 | |
| T4 资源过载 | 针对 AI 资源密集型特点,通过复杂任务耗尽其计算、内存或 API 配额,造成拒绝服务 | 推理耗尽: 发送特制的复杂输入,强制 AI 进行高消耗的推理分析,阻塞正常服务。 | |
| T11 意外远程代码执行 | 攻击者利用 AI 生成代码的能力(如 Python 解释器),注入恶意脚本或触发系统后门 | 脚本注入: 诱导 DevOps AI 生成包含恶意指令的 Terraform 脚本,以此窃取密钥。 | |
| 👤****身份与人机层 (针对信任与认证) | T9 身份伪造与冒充 | 攻击者冒充 AI 代理或合法用户,在信任网络中执行未授权操作 | 邮件伪造: 通过间接提示注入,诱导 AI 助手代表合法用户发送恶意钓鱼邮件。 |
| T10 压倒人类在环 | 通过制造海量任务或复杂决策场景,使人类监督者产生“决策疲劳”,从而匆忙批准恶意操作 | 认知过载: 瞬间生成数千个审批请求,迫使人类审核员放弃仔细检查而直接放行。 | |
| T15 人类操纵 | 利用用户对 AI 的盲目信任,通过社会工程学手段诱导用户执行有害操作 | AI 钓鱼: 被入侵的 AI 助手向用户发送看似合法的“安全更新”链接,实为钓鱼网站。 | |
| 🤝****多智能体系统层 (针对协作与通信) | T12 代理通信投毒 | 操纵智能体之间的通信信道,注入虚假信息以误导多智能体系统的协作决策 | 协作误导: 向决策网络注入虚假共识消息,引导整个智能体集群做出错误判断。 |
| T13 流氓代理 | 恶意或受损的智能体渗透进系统,利用内部信任关系破坏工作流或窃取数据 | 内部破坏: 一个受损的财务审批代理批准欺诈交易,绕过正常的验证流程。 | |
| T14 人类对多代理系统的攻击 | 攻击者利用代理间的委托机制及信任链,进行提权或规避检测 | 循环提权: 在相互依赖的代理之间反复传递请求,利用验证逻辑漏洞获取高级权限。 |
三、 诊断框架:威胁分类导航器 (Taxonomy Navigator)
为了帮助企业和开发者快速定位自身系统面临的具体风险,可建立一套基于系统特性的 6 步诊断路径。通过回答关于系统架构的关键问题,可以精准映射到上述威胁。
表 2:Agentic AI 威胁诊断导航
| 步骤 | 关键诊断问题 | 关联的潜在威胁 | 风险关注点 |
| Step 1 | AI 是否独立确定实现目标的步骤? | T6 意图破坏、T7 错位欺骗、T8 否认性 | 推理风险: 关注 AI 的规划逻辑是否被劫持,目标是否被篡改。 |
| Step 2 | AI 是否依赖存储记忆进行决策? | T1 内存投毒、T5 级联幻觉 | 数据完整性: 关注长期记忆库是否被注入了污染数据或幻觉。 |
| Step 3 | AI 是否使用工具或外部集成? | T2 工具滥用、T3 权限妥协、T4 资源过载、T11 代码执行 | 执行边界: 关注 AI 拥有的实际操作权限及其对外部系统的影响。 |
| Step 4 | 系统是否依赖认证验证身份? | T9 身份伪造与冒充 | 身份信任: 关注攻击者是否能模拟 AI 或用户身份绕过防线。 |
| Step 5 | AI 是否需要人类参与 (HITL)? | T10 压倒人类在环、T15 人类操纵 | 人机交互: 关注人类监督机制的有效性及社会工程学风险。 |
| Step 6 | 系统是否涉及多智能体交互? | T12 通信投毒、T13 流氓代理、T14 多代理攻击 | 协作信任: 关注智能体之间的通信协议及隐式信任关系。 |
四、 缓解策略:防御行动手册 (Playbooks)
针对上述威胁,文档提出了一套结构化的缓解策略,分为五个“行动手册”(Playbooks)。这些策略涵盖了从主动预防、被动响应到实时检测的全生命周期管理。
表 3:Agentic AI 安全防御行动手册
| 行动手册 | 核心防御目标 | 主动预防措施 (Proactive) | 反应与响应措施 (Reactive) | 检测与监控措施 (Detection) |
| 1. 防止推理操纵 (针对 T6, T7, T8) | 确保 AI 意图不被劫持,决策可追溯。 | • 减少攻击面,限制输入长度。 • 实施严格的工具访问白名单。 • 建立行为基线分析。 | • 验证目标一致性。 • 强制执行行为约束。 • 跟踪高频修改操作。 | • 加密日志记录。 • 实时异常意图检测。 • 监控决策反转与人工覆盖。 |
| 2. 防止内存投毒 (针对 T1, T5) | 保护知识库纯净,防止错误传播。 | • 验证内存内容的来源与签名。 • 实施会话隔离,防止跨用户污染。 • 设定记忆保留期限。 | • 多智能体交叉验证信息。 • 建立内存回滚机制(快照)。 • 进行概率真实性检查。 | • 监控跨代理的知识传播。 • 跟踪数据血缘与版本。 • 检测异常的修改频率。 |
| 3. 保护工具执行 (针对 T2, T3, T4, T11) | 防止未经授权的操作与权限滥用。 | • 实施严格的访问控制 (RBAC/ABAC)。 • 对代码执行进行沙箱隔离。 • 限制 API 调用速率与配额。 | • 记录所有工具交互日志。 • 高风险操作强制人类审批。 • 验证命令链的合法性。 | • 监控工作负载与资源消耗。 • 自动暂停异常的高频执行。 • 跟踪累积消耗与并发请求。 |
| 4. 加强认证与权限 (针对 T3, T9) | 确保身份真实,防止提权与伪造。 | • 实施多因素认证 (MFA)。 • 禁止智能体间的隐式权限委托。 • 限制凭证的持久化时间。 | • 动态调整访问权限。 • 检测角色继承中的异常。 • 实施双重验证机制。 | • 跟踪行为偏差与身份伪造特征。 • 监控角色变更历史。 • 标记异常的失败尝试。 |
| 5. 保护人机与多智能体 (针对 T10, T12, T13, T14, T15) | 维护协作信任,防止通信被破坏。 | • 消息加密与签名认证。 • 低风险决策自动化,避免人类疲劳。 • 实施共识验证机制。 | • 实时隔离可疑的流氓代理。 • 撤销受损代理的权限。 • 验证目标一致性。 | • 实时检测通信异常。 • 监控人类干预率与决策反转。 • 标记代理间的信任滥用。 |
五、 典型场景实战解析
为了更好地理解上述威胁与防御,以两个典型场景为例:
- 企业协作 Pilot (Enterprise Co-Pilots):
-
场景描述:
连接员工邮箱、日历和 CRM 系统的智能助手。
-
高危威胁:
内存投毒 (T1) 可能导致助手记住错误的业务规则;身份伪造 (T9) 可能导致攻击者借助手之名发送内部钓鱼邮件;工具滥用 (T2) 可能导致敏感数据通过日历邀请被外泄。
-
防御重点:
需重点实施行动手册 4(身份认证)和行动手册 3(工具权限控制)。
- 智能家居 IoT 安全代理:
-
场景描述:
管理家庭摄像头和门锁的 AI 代理。
-
高危威胁:
资源过载 (T4) 可能通过伪造大量运动警报使系统瘫痪;意图破坏 (T6) 可能诱导 AI 认为“夜间开门”是安全行为;流氓代理 (T13) 可能伪造“一切正常”的信号。
-
防御重点:
需重点实施行动手册 5(多智能体信任)和行动手册 2(防止幻觉与错误规则注入)。
六、 结语
Agentic AI 的安全建设不再是单一的漏洞修补,而是一个系统工程。随着 AI 获得越来越多的自主权和工具访问权,安全防御必须从传统的边界防护转向对 AI 认知过程(记忆与推理)、**执行行为(工具与权限)以及交互网络(人机与多智能体)**的全方位监控与治理。通过应用本文提出的威胁分类导航器和防御行动手册,组织可以更有效地构建可信、安全的智能体系统。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

1144

被折叠的 条评论
为什么被折叠?



