Prompt工程已死!Agent下半场,Anthropic亲授「上下文工程」才是王道!

Anthropic发布Claude Sonnet 4.5时顺便也发了一篇文章,讲的是上下文工程

Anthropic认为,随着AI进入Agent时代,构建语言模型的重点正在从“为提示找到正确的词语和短语”,转向一个更大的问题:“什么样的上下文配置最有可能产生我们期望的模型行为?”,简单来说,提示工程(Prompt Engineering)正在自然地演进为上下文工程

上下文,是AI智能体的核心动力,但它既宝贵又有限,这篇文章将深入探讨一系列策略,教你如何高效地筛选与管理这些关键信息

上下文工程 vs. 提示工程

首先,什么是上下文工程?

Anthropic给出的定义是:为LLM在推理过程中,策划和维护最优信息(tokens)集合的一系列策略

它与我们熟悉的提示工程有何不同?

提示工程:主要关注如何编写和组织LLM的指令,以获得最佳输出,特别是系统提示(System Prompt)。它的核心是“写好提示词”,通常应用于单轮查询任务

上下文工程:关注的是管理整个上下文状态,包括系统指令、工具、外部数据、历史消息等所有可能进入上下文窗口的信息。它的核心是管理信息流,是为需要在多轮推理和更长时间跨度上运行的AI Agent量身定制的

用一张对比图展示二者的区别:

左侧的提示工程,流程简单:系统提示+用户消息,直接生成回复

右侧的上下文工程,则是一个动态循环:模型需要从一个包含文档、工具、记忆文件、历史消息等庞大的“可能上下文池”中,通过一个“策划”环节,筛选出最优信息组合,填入有限的上下文窗口,然后才能进行思考、调用工具并生成下一步行动

这个“策划”过程,在Agent的每一次决策循环中都会发生,是上下文工程的核心

为什么上下文工程如此重要?

Anthropic指出,尽管LLM能处理越来越大的数据量,但它们和人类一样,在某个点上会失去焦点或感到困惑

研究已经揭示了“上下文腐烂(Context Rot)”现象:随着上下文窗口中的令牌数量增加,模型准确回忆其中信息的能力会下降

这种现象背后的根本原因,源于Transformer架构的内在限制。每个令牌都需要与上下文中的其他所有令牌建立关系,这导致了n²的成对关系复杂性。当上下文变长时,模型的“注意力预算(attention budget)”会被摊薄

因此,上下文是一种有限且边际效益递减的宝贵资源。优秀的上下文工程,就是要找到那个能最大化期望结果可能性的、最小的高信噪比令牌集

高效上下文的“解剖”

如何进行有效的上下文工程?Anthropic从实践层面给出了三大核心组件的指导原则。

1. 系统提示:找到恰到好处的平衡点

系统提示是门艺术,需要避免两个极端:

过于具体:在提示中硬编码复杂的if-else逻辑,会导致系统脆弱,难以维护

过于模糊:给出高级别的、模糊的指导,无法为LLM提供具体的行为信号

最佳实践是找到一个“黄金区域”:指令既要足够具体以有效指导行为,又要足够灵活以赋予模型强大的启发式能力

Anthropic建议将提示结构化为不同部分(例如背景信息、指令),其核心原则是:力求用最精简的信息,来完整地阐明预期的行为

2. 工具:像设计优秀代码库一样设计工具

工具定义了Agent与环境交互的契约。好的工具应该像设计良好的代码库中的函数一样:

自包含、功能内聚,尽量减少功能重叠

对错误有鲁棒性

意图清晰,输入参数描述明确、无歧义

最常见的失败模式是“臃肿的工具集”,这会让Agent(甚至人类工程师)难以抉择。精简、可行的工具集是上下文工程的关键

3. 示例(Few-shot Prompting):重质而非量

提供示例是公认的最佳实践。但Anthropic不建议将大量的边缘案例塞进提示中

正确的做法是,策划一组多样化、规范化的示例,这些示例能有效地描绘出Agent的预期行为。对于LLM来说,好的示例一图胜千言

从预加载到即时检索:Agentic Search

传统的RAG等方法,倾向于在推理前就检索并“预加载”所有相关信息。而Anthropic观察到一个新趋势:“即时”上下文策略

在这种模式下,Agent只维护轻量级的标识符(如文件路径、URL),并在运行时使用工具动态地将数据加载到上下文中。这就像人类不会记住所有信息,而是通过文件系统、书签来按需检索

Claude Code就是这种方法的实践者。它可以通过headtail等Bash命令分析大型数据库,而无需将整个数据库加载到上下文中

这种方法也支持渐进式披露,允许Agent通过探索逐步发现相关上下文,每次交互都会为下一次决策提供信息

当然,运行时探索比预计算慢,因此最佳策略可能是混合模式:预先检索部分关键信息以提高速度,同时赋予Agent自主探索的权力

应对长时程任务的三大策略

当任务(如大型代码库迁移)的持续时间远超单个上下文窗口的容量时,需要专门的技术来维持连贯性。Anthropic分享了三种核心策略:

1. 压缩

当对话接近上下文窗口极限时,让模型对现有内容进行总结和压缩,然后用这个摘要开启一个新的上下文窗口。这能以高保真度的方式提炼关键信息(如架构决策、未解决的bug),同时丢弃冗余内容(如过时的工具输出)。最简单的一种压缩形式就是清理旧的工具调用和结果

2. 结构化笔记

也称为“智能体记忆(agentic memory)”。这是一种让Agent定期将笔记持久化到上下文窗口之外的内存中的技术。这些笔记可以在稍后的时间点被重新拉回上下文

Anthropic展示了一个让Claude玩《宝可梦》的例子:Agent在没有被明确提示的情况下,自主学会了创建待办事项列表、绘制探索过的区域地图、记录战斗策略等。当上下文重置后,它能通过读取自己的笔记,无缝衔接之前的进度,完成长达数小时的游戏任务

3. 子智能体架构

与其让单个Agent维护整个项目的状态,不如让专门的子智能体处理集中的任务。一个主智能体负责高层级的规划和协调,而子智能体则深入执行技术工作或信息检索,并只返回一个精炼的摘要。这种“关注点分离”的模式,在复杂研究任务中被证明比单智能体系统有显著的优势。

如何选择?

压缩:适用于需要大量来回对话的任务

笔记:适用于有明确里程碑的迭代式开发任务

多智能体:适用于并行探索能带来收益的复杂研究和分析任务

写在最后

上下文工程代表了构建LLM应用方式的根本性转变

随着模型能力越来越强,挑战不再仅仅是制作完美的提示,而是在每一步都深思熟虑地策划哪些信息能进入模型有限的注意力预算

无论是为长时程任务实现压缩,设计高效的工具,还是让Agent“即时”探索环境,其指导原则始终如一:找到最小的高信噪比令牌集,以最大化期望结果的可能性

即使未来模型变得更加自主,将上下文视为一种宝贵的、有限的资源,仍将是构建可靠、高效Agent的核心

如何学习大模型 AI ?

我国在AI大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着Al技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国Al产业的创新步伐。加强人才培养,优化教育体系,国际合作并进,是破解困局、推动AI发展的关键。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

2025最新大模型学习路线

明确的学习路线至关重要。它能指引新人起点、规划学习顺序、明确核心知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。

对于从来没有接触过AI大模型的同学,我帮大家准备了从零基础到精通学习成长路线图以及学习规划。可以说是最科学最系统的学习路线。

在这里插入图片描述

针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。

大模型经典PDF书籍

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路!

在这里插入图片描述

配套大模型项目实战

所有视频教程所涉及的实战项目和项目源码等
在这里插入图片描述

博主介绍+AI项目案例集锦

MoPaaS专注于Al技术能力建设与应用场景开发,与智学优课联合孵化,培养适合未来发展需求的技术性人才和应用型领袖。

在这里插入图片描述

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

为什么要学习大模型?

2025人工智能大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

在这里插入图片描述

适合人群

  • 在校学生:包括专科、本科、硕士和博士研究生。学生应具备扎实的编程基础和一定的数学基础,有志于深入AGI大模型行业,希望开展相关的研究和开发工作。
  • IT行业从业人员:包括在职或失业者,涵盖开发、测试、运维、产品经理等职务。拥有一定的IT从业经验,至少1年以上的编程工作经验,对大模型技术感兴趣或有业务需求,希望通过课程提升自身在IT领域的竞争力。
  • IT管理及技术研究领域人员:包括技术经理、技术负责人、CTO、架构师、研究员等角色。这些人员需要跟随技术发展趋势,主导技术创新,推动大模型技术在企业业务中的应用与改造。
  • 传统AI从业人员:包括算法工程师、机器视觉工程师、深度学习工程师等。这些AI技术人才原先从事机器视觉、自然语言处理、推荐系统等领域工作,现需要快速补充大模型技术能力,获得大模型训练微调的实操技能,以适应新的技术发展趋势。
    在这里插入图片描述

课程精彩瞬间

大模型核心原理与Prompt:掌握大语言模型的核心知识,了解行业应用与趋势;熟练Python编程,提升提示工程技能,为Al应用开发打下坚实基础。

在这里插入图片描述

RAG应用开发工程:掌握RAG应用开发全流程,理解前沿技术,提升商业化分析与优化能力,通过实战项目加深理解与应用。 在这里插入图片描述

Agent应用架构进阶实践:掌握大模型Agent技术的核心原理与实践应用,能够独立完成Agent系统的设计与开发,提升多智能体协同与复杂任务处理的能力,为AI产品的创新与优化提供有力支持。
在这里插入图片描述

模型微调与私有化大模型:掌握大模型微调与私有化部署技能,提升模型优化与部署能力,为大模型项目落地打下坚实基础。 在这里插入图片描述

顶尖师资,深耕AI大模型前沿技术

实战专家亲授,让你少走弯路
在这里插入图片描述

一对一学习规划,职业生涯指导

  • 真实商业项目实训
  • 大厂绿色直通车

人才库优秀学员参与真实商业项目实训

以商业交付标准作为学习标准,具备真实大模型项目实践操作经验可写入简历,支持项目背调

在这里插入图片描述
大厂绿色直通车,冲击行业高薪岗位
在这里插入图片描述

文中涉及到的完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值