本章目标
本章旨在为“智能体(Agent)”建立坚实的工程问题背景。我们将首先剖析将大型语言模型(LLM)直接应用于真实系统时必然遭遇的三大失效模式,论证为何仅靠提升模型规模或优化提示无法根本解决这些问题。最终,我们将阐明,“推理”与“行动”在循环中紧密协同的智能体范式,是实现可靠、可审计、能解决实际问题的AI系统的唯一技术路径。
1.1 什么是智能体?——回归工程本质的定义
在流行语境中,“智能体”常被泛化为任何能对话的AI。然而,在工程实践中,我们必须回归其控制论与人工智能领域的本源,给出一个可构建、可测试的定义。
定义(工程化智能体):
智能体是一个能基于给定目标,自主进行推理规划,并通过与外部环境交互来执行动作、感知反馈,进而持续优化其决策与行动,直至完成目标的感知-决策-执行闭环系统。
这个定义剥离了神秘感,强调了几个工程核心要素:
-
目标驱动:输入不是闲聊,而是一个待完成的“任务”。
-
序列决策:能够拆解目标,规划步骤序列。
订阅专栏 解锁全文
3551

被折叠的 条评论
为什么被折叠?



