文章介绍了AI Agent面临的核心挑战:上下文窗口被大量工具结果填满导致性能下降。以Manus为例,提出了三大上下文工程策略:减少(压缩与总结)、卸载(分层行动空间)、隔离(子Agent实现上下文隔离)。同时强调模型选择应考虑KV缓存效率,架构设计需留有重构空间。通过精准管理上下文窗口,即使平均50次工具调用的任务也能保持LLM高效运转,这直接决定了AI Agent的性能上限。
当一个AI Agent完成一次任务平均要调用50次工具,海量工具结果不断涌入上下文窗口时,LLM的性能会不可避免地遭遇滑铁卢。Chroma的“上下文衰减”研究与Anthropic提出的“注意力预算耗尽”理论,都印证了这一痛点。
Manus作为当下热门的通用消费级AI Agent,其联合创始人兼首席战略官Yichao “Peak” Ji在 webinar 中,首次系统拆解了Manus的上下文工程核心逻辑。

以下是我整理出了这份能直接复用的实践指南。
一、为什么上下文工程是AI Agent的“生命线”?
在理解Manus的方案前,先要明确一个关键定义:Anthropic将AI Agent定义为“LLM自主引导流程、调用工具,掌控任务完成路径的系统”,本质是LLM循环调用工具的过程。
而这个过程中,最大的隐患藏在“上下文窗口”里:
- 工具结果堆积:Manus单次任务平均触发50次工具调用,所有结果若全存进上下文,窗口会迅速被填满。
- 性能持续衰减:随着上下文内容增多,LLM的注意力会被分散,就像人面对杂乱无章的书桌无法高效工作——Chroma称之为“上下文衰减”,Anthropic则解释为“注意力预算被耗尽”。
- 行业共识明确:AI领域权威人物Karpathy直接点明,上下文工程的核心,就是“为Agent的每一步行动,精准填充上下文窗口所需的信息”。

二、Manus的3大上下文工程策略
Manus为每个会话分配独立虚拟机,让Agent拥有文件系统和终端工具。在此基础上,它通过“减少、卸载、隔离”三大策略,实现上下文窗口的高效管理。
策略1:Reduce(减少)——压缩与总结双管齐下
Manus为工具调用结果设计“完整版”和“精简版”两种形态:
- 完整版:存储原始工具结果(如完整搜索内容),但仅保存在沙盒文件系统中,不占用上下文窗口。

- 精简版:仅保留完整结果的引用(如文件路径“/home/ubuntu/foo.txt”),直接放入上下文窗口。

当Agent接近上下文窗口上限时,系统会自动触发压缩机制:
- 将旧工具结果的“完整版”替换为“精简版”,释放窗口空间。
- 新工具结果仍保留“完整版”,确保Agent能基于最新信息决策。
- 当压缩效果达到瓶颈时,启动总结机制——按预设 schema 生成工具结果摘要,保证不同任务的摘要格式统一,进一步节省空间。
策略2:Offload(卸载)——构建分层行动空间
很多开发者会为Agent配置大量工具,但这会导致两个问题:工具描述占用大量 tokens,且工具间的重叠、模糊会让LLM confusion。 Manus的解决方案是“分层行动空间”:
- 函数调用层:仅保留不到20个“原子函数”,如shell(执行终端命令)、text editor(读写文件)、search(搜索)等。这些函数功能通用,能覆盖绝大多数任务需求。
- 沙盒层:将大量工具(如语音工具、MCP CLI命令)转移到沙盒中,以终端命令形式存在。Agent无需记忆这些工具的细节,只需通过“–help”命令即可随时查看用法。
这种设计不仅减少了上下文窗口中工具描述的占用,还降低了LLM的认知负担——无需在众多工具中做选择,只需调用通用函数,再在沙盒中执行具体命令。

策略3:Isolate(隔离)——用子Agent实现上下文隔离
Manus不采用“拟人化分工”(如设计“设计师Agent”、“工程师Agent”),而是仅保留3类核心子Agent,避免跨Agent通信的冗余:
- 规划者(Planner):负责任务管理,决定何时调用其他子Agent。
- 知识管理者:梳理对话内容,判断哪些信息需要存入文件系统。
- 执行者(Executor):接收规划者指令,完成具体任务。
子Agent与主Agent的上下文交互分两种场景:
- 简单任务:规划者仅向执行者发送任务指令,执行者完成后返回结果(类似Claude Code的任务工具)。
- 复杂任务:规划者向执行者共享完整上下文(如全部对话历史),但执行者仍拥有独立的工具库和提示词,确保任务执行的独立性。
无论哪种场景,规划者都会为执行者定义输出schema,并通过“约束解码”技术,保证执行者的结果符合格式要求,避免上下文混乱。
2.1 模型选择:成本优先,混合搭配
Manus的模型选择核心是“KV缓存效率”:
- 大量使用缓存技术(如缓存系统指令、重复内容),降低成本和延迟。
- 优先选择支持分布式KV缓存的前沿模型(如Claude、Gemini、OpenAI),这类模型虽看似昂贵,但缓存带来的成本节省,实际比开源模型更划算。
- 不绑定单一模型,而是按任务路由:编码用Claude,多模态任务用Gemini,数学推理用OpenAI,最大化不同模型的优势。

2.2 拥抱“痛苦教训”,设计可进化架构
Manus团队深受“Bitter Lesson”(痛苦教训)理论影响——AI的进步往往来自计算能力的提升,而非复杂的结构设计。
因此,他们的开发理念有两个核心:
- 频繁重构:自2025年3月上线以来,Manus已重构5次,不断适配模型能力的提升。
- 持续评估:定期用不同强度的模型测试Agent性能。如果更强的模型无法提升Agent表现,说明当前的架构(如Agent的“ harness ”框架)已成为瓶颈,需要及时调整。
三、最后总结AI Agent上下文管理的6条实践启示
从Manus的实践中,我们可以提炼出6条能直接复用的经验:
- 上下文管理的核心是“精准”——只在窗口中保留Agent下一步需要的信息。
- 工具设计宜“精”不宜“多”,通用原子函数+沙盒工具的组合,比大量专用工具更高效。
- 子Agent的价值是“隔离上下文”,而非“拟人化分工”,过多子Agent会增加通信成本。
- 缓存是降低模型成本的关键,优先选择支持分布式KV缓存的模型。
- 架构设计要“留有余地”,避免过度结构化,以便适配模型能力的快速提升。
- 定期用更强模型测试Agent,及时发现并打破架构瓶颈。
AI Agent的竞争,本质是“效率”的竞争——而上下文窗口的管理效率,直接决定了Agent的性能上限。Manus的实践证明,通过科学的策略,即使是平均50次工具调用的任务,也能让LLM始终保持高效运转。
AI时代,未来的就业机会在哪里?
答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具,到自然语言处理、计算机视觉、多模态等核心领域,技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。

掌握大模型技能,就是把握高薪未来。
那么,普通人如何抓住大模型风口?
AI技术的普及对个人能力提出了新的要求,在AI时代,持续学习和适应新技术变得尤为重要。无论是企业还是个人,都需要不断更新知识体系,提升与AI协作的能力,以适应不断变化的工作环境。
因此,这里给大家整理了一份《2025最新大模型全套学习资源》,包括2025最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题等,带你从零基础入门到精通,快速掌握大模型技术!
由于篇幅有限,有需要的小伙伴可以扫码获取!

1. 成长路线图&学习规划
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。

2. 大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)

3. 大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。

4. 大模型项目实战
学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

5. 大模型行业报告
行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

6. 大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

为什么大家都在学AI大模型?
随着AI技术的发展,企业对人才的需求从“单一技术”转向 “AI+行业”双背景。企业对人才的需求从“单一技术”转向 “AI+行业”双背景。金融+AI、制造+AI、医疗+AI等跨界岗位薪资涨幅达30%-50%。
同时很多人面临优化裁员,近期科技巨头英特尔裁员2万人,传统岗位不断缩减,因此转行AI势在必行!

这些资料有用吗?
这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


大模型全套学习资料已整理打包,有需要的小伙伴可以
微信扫描下方优快云官方认证二维码,免费领取【保证100%免费】

111

被折叠的 条评论
为什么被折叠?



