本文详细介绍了上下文工程(Context Engineering)的概念与策略,解释了为什么长上下文不等于高质量,并重点阐述了斯坦福大学等团队提出的Agentic上下文工程(ACE)框架。ACE通过"生成→反思→策划→再执行"的闭环,让智能体无需微调就能实现自我学习与进化,通过不断优化上下文中的"策略手册",使AI从回答问题进化到学会思考,持续提升决策能力。
在提示工程的年代,我们教AI“怎么回答”;而在Agent(智能体)的时代,我们要教它“怎么思考”。于是,提示工程进化成了一个新形态 — **上下文工程(Context Engineering) —**它不再是微调一行提示,而是构建一个能让AI感知世界、自主决策与行动的舞台。
最近,斯坦福大学等团队联合提出了一种上下文工程方法:Agentic Context Engineering(ACE)。让智能体无需微调,也能通过上下文的不断演化实现自我学习与进化。
这是《实战·Agentic 上下文工程》的上篇。你将看到:
- 为什么上下文需要“工程”
- 什么是上下文工程
- 上下文工程的常见策略
- Agentic上下文工程是什么
- Agentic上下文工程原理与架构
在下篇中,我们将基于ACE构建一个能够“自己复盘与改进”的Agent原型系统。
为什么上下文需要“工程”?
现在的上下文窗口已经普遍达到128K以上甚至1M,这给了智能体勃勃生机的无线可能:你可以把大量智能体需要的东西(指令、知识、工具等)都丢进一次Prompt中,让LLM自由的推理、规划、行动。
但为什么智能体的表现仍然不尽如人意?问题的原因不在于上下文能“装”多少,而在于最终LLM“消化”的是什么。LLM的输出永远存在不确定性——这是架构层面注定的事实。在模型尚未发生质变之前,我们能控制的唯一变量,就是它的输入:上下文(Context)。

而控制上下文,更大的“胃口”(窗口大小)固然重要;但更重要的是“营养”(质量)。大量的测试表明,更长的上下文并不确定会带来更好的结果:其中可能的冗余、冲突、错误(幻觉)信息都会让LLM迷失方向。
即使上下文内容完全正确,当输入规模过大时,LLM的“注意力”也可能会被分散,关键指令或语义线索被淹没,导致模型理解出现偏移与错位,甚至在推理中“跑题”。
更重要的是,在智能体的多轮推理中,微小的偏差会不断“叠加”,最终Agent任务可能完全“南辕北辙”。
这就是为什么需要上下文工程(Context Engineering):
当LLM可以“吞”下更多内容时,你需要确保“营养搭配”:有结构、有逻辑、有重点,而不仅仅是“堆料”。
什么是上下文工程?
Shopify的CEO Tobi Lutke这样形容上下文工程:
为LLM提供所有用于合理解决任务的上下文信息的艺术。

如果说上下文是LLM的RAM(来自OpenAI 前研究科学家 Karpathy的比喻),那么上下文工程(Context Engineering) 就是 — 设计并实施这块有限 RAM 的管理机制,让信息的组织、输入、更新、淘汰都更有秩序与目的性。
上下文工程不是简单的提示模板设计与堆叠(尽管提示模板是它的一角)。它需要关注到更深层次的一系列结构性问题与工程方法:
-
包含哪些信息,如何组织,什么格式?
行业知识或工具指南,或者更多,如何分类排序?
普通文本还是半结构化的JSON、Markdown?
-
信息从哪里,又在什么时候获取?
是来自企业内部数据库还是互联网、或Agent产生?
是原始输入还是通过中间步骤动态注入?
-
信息如何产生,如何存储,又是如何检索?
静态信息、缓存信息、动态生成与检索?
传统索引、向量数据库,还是实时 Web 搜索?
-
信息是否需要清洗、标注、压缩?
是否需要去除冗余、噪音、重复,并标注出重点?
上下文是否需要压缩(如长期记忆)?
-
信息是否需要有生命周期管理?
哪些内容持久存在,哪些随时间与任务衰减?
信息过期机制,滑动窗口、基于使用次数还是LLM判断?
总之,上下文工程更像是为LLM建立一套语义的“供应链”,让LLM得以正确理解和推理 — 从而让Agent做出正确的决策。
上下文工程的常见策略
上下文工程涵盖很多不同的方法与技术。在实践中,有一些经过验证、可复用的策略,能帮助我们更好地实施上下文工程,这里为大家总结:

1)上下文分区与隔离
为了让“RAM”中的信息不打架、逻辑不混乱,可以对上下文进行分区:
- 将上下文划分为指令层、目标层、记忆层、知识层、工具层等
- 为每一层分配独立的 Token 预算与出现顺序,确保关键信息始终可见
- 给不同的角色(如规划器、执行器、反思器)分配不同的上下文切片,避免信息冗余与推理“漂移”
2)用RAG装备知识
- 通过检索召回相关的知识,动态注入上下文。
- 不要迷信超大上下文窗口 – “把所有东西都塞进窗口”。太多的垃圾信息,只会让LLM又傻又慢。上下文不是简单的“堆料”,而是“选料”。
3)合理组装工具(Tools)
工具(Tools)是Agent的手脚,上下文工程要教他如何用手脚:
- 给每个工具以清晰、没有歧义的“说明书”(如函数Docstring)
- 仅装载最相关的工具,比如用RAG来筛选工具描述
- 让工具的异常返回具有清晰的“引导性”,而不是简单的“Tool Error”
4)多智能体协作
在大型的Agent任务中,多Agent是一种常见的架构模式:
- 每个子Agent拥有各自独立的上下文窗口与任务焦点,本身就是一种上下文隔离,减少干扰的手段
- 让单Agent推理100个工具,不如让五个Agent各推理20个,再加一个协调者
- 多Agent设计可以遵循模块设计经典原则“高内聚、低耦合”
5)修剪、卸载、压缩
在长程推理任务的Agent中,你需要考虑应对上下文的“滚雪球”式的膨胀:
- 修剪:适时删除不相关的信息。可借助LLM或者规则引擎来判断
- 卸载:让Agent在上下文之外”记笔记”,比如把阶段性结果写入外部存储,必要时再引用(如工具输出、动态规则等)
- 压缩:通过摘要或语义聚合让上下文更紧凑,提高信息密度而不过度冗长。
当然,除了这些重要的上下文策略,传统提示工程中的技巧仍然奏效:比如指令既不能太死板,也不能太空洞;提供少量但多样化的few-shot等。
Agentic上下文工程(ACE)是什么?
Agentic上下文工程(Agentic Context Engineering)是由斯坦福大学、SambaNova、UC 伯克利团队提出的一种上下文工程框架,,其核心理念是:
不用微调,不改变模型参数,让智能体自己成长。
换句话说,ACE 的目标不是“训练一个更聪明的LLM”来让Agent更聪明,而是让Agent学会“训练自己” — 通过不断调整和丰富它的上下文,实现一种类似“自我学习”“自我成长”的能力。
ACE采取了怎样的方法呢?
ACE 给上下文带入一份可以不断演化的**“策略手册(Playbook)”**。每次任务执行,Agent会从自己的表现中总结经验并修正,并带着改进后的“宝典”进入下一轮。如此循环往复,Agent的能力也随之积累与升级。


假设有一个客服智能体,负责回答用户的退换货问题。
-
第一次任务中,它在处理“退款到账时间”的问题时,给出了笼统的回答:“一般需要1–7个工作日。”
-
但用户追问后发现该回答并不准确,因为不同支付方式的退款周期不同。
-
任务结束后,反思器(Reflector)开始分析了这次对话的轨迹与失败原因:
“我没有区分支付渠道(支付宝、微信、信用卡),
导致回答模糊,用户体验不佳。”
- 接着,策划器(Curator) 会把这条经验转化为Playbook中的“经验”。这条经验会被注入到下一次任务的智能体上下文
“当回答退款周期问题时,需根据支付方式提供具体时间范围。”
- 第二次任务,当智能体再次遇到类似问题时,参考这条经验,回答变成:
“若您通过支付宝付款,退款通常在 1–2 个工作日内到账;
若使用信用卡,银行处理可能需要 3–7 个工作日。”
这就是一次完整的“ACE 循环”:
生成 → 反思 → 策划 → 再执行。
智能体没有改模型参数,却通过上下文的演化,
学会了更精准、更符合场景的回答。

Agentic上下文工程(ACE)原理与架构
ACE通过四个核心组件的协同工作,实现了 Agent 的持续学习和自我进化。这四个组件形成了一个完整的学习循环,让 Agent 能够从每次执行中积累经验,并将这些经验转化为可复用的策略:

- 策略知识库(Playbook)-- “记忆体”
ACE系统的"记忆中枢",负责存储和管理 Agent 在实践中学到的所有策略。它不是一个简单的数据存储,而是一个智能化的知识管理系统,承担必要的策略维护与生命周期管理等。
- 生成器(Generator)-- “行动者”
承担常规任务执行的角色,基于当前上下文执行任务,产生一系列动作、推理轨迹和结果(如对话和工具使用序列)。在此过程中会暴露出问题:哪些策略是有效的,哪些出现偏差。
- 反思器(Reflector)-- “复盘者”
每轮任务后,对生成器的行为轨迹进行反思 ,提炼出具体的经验教训,如:哪些提示奏效了?哪些推理路径出现失误?哪类信息确实导致错误?你可以理解为一种“工作复盘:这一步我为什么错了?下次我应该注意什么?。
- 策划器(Curator)-- “策略管家”
将反思器给出的教训转化为可以附加在上下文中的可复用的策略,并维护更新Playbook。这里的关键在于:不是简单地插入或覆盖,而需要实现严格的质量控制(去重、修剪、评分等)、优先级决策、生命周期管理等能力。
我们用伪代码来认识工作原理:
# === 一次完整的 ACE 循环 ===def ace_round(task, playbook): # 1) 取策略手册生成上下文(可含 RAG/工具说明/约束) strategies = playbook.query(task) context = build_context(task, strategies) # 2) 行动者执行任务,产生轨迹 generator = Generator() trace = generator.run(task, context) # 3) 反思器复盘轨迹,产出“经验教训” reflector = Reflector() lessons = reflector.analyze(task, trace) # 4) 策划器做质量控制,增量写回 Playbook curator = Curator() updates = curator.curate(lessons) playbook.update(updates) return trace, updates# === 主流程(持续的在任务过程中学习) ===playbook = Playbook()for task in task_stream(): # 连续的真实任务流 trace, updates = ace_round(task, playbook)
ACE 的创新在于,它建立了一个真正的智能体学习闭环:
生成→反思→策略->再生成
智能体不只是执行任务,而是在不断****学习如何执行得更好 - 每一次任务都在丰富它的上下文,完善它的策略。
这正是“Agentic上下文工程”的真正含义——
让上下文智能进化,进而让Agent自我成长,不断变聪明。
我们将在下篇中介绍一个ACE系统的原型设计与实现,欢迎继续关注。
如何学习AI大模型 ?
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】🆓
优快云粉丝独家福利
这份完整版的 AI 大模型学习资料已经上传优快云,朋友们如果需要可以扫描下方二维码&点击下方优快云官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉优快云大礼包:《最新AI大模型学习资源包》免费分享 👈👈
对于0基础小白入门:
如果你是零基础小白,想快速入门大模型是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。
👉1.大模型入门学习思维导图👈
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。
对于从来没有接触过AI大模型的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。(全套教程文末领取哈)

👉2.AGI大模型配套视频👈
很多朋友都不喜欢晦涩的文字,我也为大家准备了视频教程,每个章节都是当前板块的精华浓缩。


👉3.大模型实际应用报告合集👈
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(全套教程文末领取哈)

👉4.大模型实战项目&项目源码👈
光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战项目来学习。(全套教程文末领取哈)

👉5.大模型经典学习电子书👈
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。(全套教程文末领取哈)

👉6.大模型面试题&答案👈
截至目前大模型已经超过200个,在大模型纵横的时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。为了让大家更容易上车大模型算法赛道,我总结了大模型常考的面试题。(全套教程文末领取哈)

为什么分享这些资料?
只要你是真心想学AI大模型,我这份资料就可以无偿分享给你学习,我国在这方面的相关人才比较紧缺,大模型行业确实也需要更多的有志之士加入进来,我也真心希望帮助大家学好这门技术,如果日后有什么学习上的问题,欢迎找我交流,有技术上面的问题,我是很愿意去帮助大家的!
这些资料真的有用吗?
这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


优快云粉丝独家福利
这份完整版的 AI 大模型学习资料已经上传优快云,朋友们如果需要可以扫描下方二维码&点击下方优快云官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉优快云大礼包:《最新AI大模型学习资源包》免费分享 👈👈
549

被折叠的 条评论
为什么被折叠?



