提示工程还没搞懂,上下文工程(Context Engineering)已成大模型新战场

上下文工程:大模型新战场
部署运行你感兴趣的模型镜像

上下文工程: AI应用核心技术剖析

在人工智能飞速发展的今天,一个新词汇—“上下文工程”(Context-Engineering)正逐渐取代“提示工程”(Prompt-Engineering),成为构建高效 AI 应用的核心关注点。它不仅是 AI 编码助理的新潮流,更是让 AI 真正工作的关键。

一、什么是上下文工程?

虽然“上下文工程”的原理并非全新,但这个术语提供了一个有用的抽象,帮助我们理解构建有效 AI 智能体时面临的最紧迫挑战。简单来说,AI 智能体需要相关上下文才能合理地执行任务。

与传统“提示工程”主要关注如何巧妙措辞和提供指令不同,上下文工程将重点放在如何用最相关的信息填充 LLM 的上下文窗口,无论这些信息来源于何处。它不仅仅是短任务描述,更是“将正确的信息在正确的时间填入上下文窗口的精妙艺术与科学”。Andrej Karpathy 将 LLM 类比为新型操作系统,模型是 CPU,而上下文窗口就是 RAM,上下文工程正是精巧地把对的信息在对的时机塞进上下文窗口的微妙艺术与科学。它就像为 AI 编写一个完整的剧本,而非仅仅一张便条或提词器。

二、上下文的构成要素

在实际的 AI 智能体或 LLM 应用中,上下文由多种元素组成:

  • 系统提示词/指令(System Prompt/Instruction):为智能体设定场景,定义模型行为的初始指令和风格,明确其任务类型。
  • 用户输入(User Input):用户的具体问题或任务请求。
  • 短期记忆或聊天历史(Short Term Memory / Chat History):提供 LLM 关于当前对话的上下文,包含用户和模型的所有回应。
  • 长期记忆(Long-Term Memory):用于存储和检索长期聊天历史或其它相关信息,例如跨对话的用户偏好、过去对话摘要、被告知要记住的事实等。
  • 从知识库中检索的信息(Information retrieved from a knowledge base):通过 RAG(Retrieval Augmented Generation)技术从数据库、API 调用、MCP 工具或其它外部来源检索到的相关信息。
  • 工具及其定义(Tools and their definitions):向 LLM 提供它可访问的工具的额外上下文。
  • 工具的响应(Responses from tools):工具运行后返回给 LLM 的结果,作为新的上下文供其继续工作。
  • 结构化输出(Structured Outputs):定义模型回应的格式,也可以反过来提供凝练的结构化信息作为特定任务的上下文。
  • 全局状态/工作流上下文(Global State/Workflow Context):特别适用于 LlamaIndex 构建的智能体,可作为暂存器,在智能体步骤中存储和检索全局信息,或在多步骤 Agent/Workflow 中暂存任务进度、先前结果等。

所有这些元素的某种组合构成了几乎所有智能体 AI 应用程序中底层 LLM 的上下文。

在这里插入图片描述

三、上下文工程的重要性

上下文工程之所以如此重要,原因在于它能显著提升 AI 系统的性能和可靠性:

  • 减少 AI 失败:大多数智能体失败并非模型本身的失败,而是上下文提供的不足或不当。
  • 确保一致性:通过提供全面的上下文,AI 能更好地遵循项目模式和约定。
  • 实现复杂功能:AI 能够处理多步骤的复杂实现,得益于适当的上下文。
  • 自我纠正能力:结合验证循环,AI 能够识别并修正自身的错误。
  • 将“原始智力”转化为“智慧软件系统”:LLM 的“智力”只是基石,要使其真正有效,必须通过上下文工程提供其所需的所有信息和工具。
  • 成本效益:上下文并非免费,每个 token 都有成本,并且会影响模型行为。因此,动态管理上下文能有效优化成本和性能。

图片
在这里插入图片描述

四、上下文工程的技术与策略

鉴于上下文构成的复杂性,上下文工程面临两大挑战:选择正确的上下文和让上下文适应上下文窗口限制。以下是一些关键的架构选择和策略:

  1. 知识库或工具选择(Knowledge base or tool selection): 与仅针对单一知识库(如向量存储)进行问答的 RAG 应用不同,现在的智能体应用通常需要访问多个知识库和工具。智能体首先需要关于可用工具或知识库的信息,这是确保智能体选择正确资源的关键上下文。
  2. 上下文排序或压缩(Context ordering or compression): 由于上下文窗口的限制,需要最大化利用有限空间。技术包括:
    • 上下文摘要:在检索步骤后对结果进行摘要,再添加到 LLM 上下文中。
    • 排序:在某些情况下,信息的顺序也很重要,例如当信息的日期高度相关时,通过排序步骤可以确保 LLM 收到最相关的信息。
    • 自动压缩(Auto-compact):例如 Claude Code 在上下文窗口超过 95% 时,会执行自动压缩,总结当前状态并重新开始。
  3. 长期记忆存储与检索(Long-term memory storage and retrieval): 对于需要持续对话的应用,对话历史本身就是上下文。LlamaIndex 提供了多种长期记忆实现方式,例如:
    • VectorMemoryBlock:从向量数据库存储和检索聊天消息。
    • FactExtractionMemoryBlock:从聊天历史中提取事实。
    • StaticMemoryBlock:存储静态信息。 选择合适的长期记忆类型以及它应返回多少上下文,是构建智能体时的重要决策。
  4. 结构化信息(Structured Information): 避免提供所有不必要的上下文是常见错误。结构化输出能显著提高提供给 LLM 上下文的相关性:
    • 请求结构:向 LLM 提供一个 schema,要求其输出符合该 schema。
    • 作为额外上下文提供的结构化数据:以凝练的方式提供相关上下文,避免上下文过载。 LlamaExtract 等工具可以从复杂文件中提取最相关的数据,然后将这些结构化输出用作下游智能体应用的精简上下文。
  5. 工作流工程(Workflow Engineering): 虽然上下文工程关注优化每次 LLM 调用中的信息,但工作流工程则更宏观地考虑“需要什么样的 LLM 调用序列和非 LLM 步骤才能可靠地完成工作?”。它能从根本上优化上下文:
    • 定义明确的步骤序列:规划复杂任务所需任务的确切流程。
    • 战略性控制上下文:精确决定何时调用 LLM,何时使用确定性逻辑或外部工具。
    • 确保可靠性:内置验证、错误处理和回退机制。
    • 优化特定结果:创建专门的工作流,持续交付业务所需结果。 从上下文工程的角度来看,工作流至关重要,因为它们可以防止上下文过载。通过将复杂任务分解为专注的步骤,每个步骤都有自己的优化上下文窗口,而不是将所有内容塞入一个 LLM 调用。
  6. 隔离上下文(Isolating Context): 通常出现在多智能体(Multi-Agents)的实现中。任务可以拆分到另一个子智能体(Sub Agent)去执行,执行完成后只返回结果,从而大大节省主智能体的上下文用量。
  7. 自定义格式(Custom Formats): 不一定需要遵循模型厂商预设的 message-based 格式。可以为特定使用场景创建优化的上下文格式,例如将上下文用 XML 格式都塞到单一用户提示中,以获得最大的信息密度,用更少的 Token 传递相同信息。

在这里插入图片描述

五、实践:利用模板进行上下文工程

要将上下文工程付诸实践,我们可以参考一些优秀的项目,例如coleam00/context-engineering-intro这个 GitHub 仓库。它提供了一个全面的上下文工程模板,旨在帮助用户为 AI 编码助手设计和工程化上下文,使其能够端到端地完成工作。该模板以 Claude Code 为中心,但其策略可应用于任何 AI 编码助手。 该模板强调:上下文工程比提示工程优秀 10 倍,比“vibe coding”优秀 100 倍。它是一个完整的系统,用于提供全面的上下文,包括文档、示例、规则、模式和验证。 其模板结构包括:

  • .claude/commands/:定义自定义命令,如generate-prp(生成综合性 PRP)execute-prp(执行 PRP 以实现功能)
  • PRPs/:存放PRP(Product Requirements Prompts),这是一种综合的实现蓝图,包含完整上下文、文档、实现步骤、验证、错误处理模式和测试要求。
  • examples/:存放代码示例,这对于成功至关重要,AI 编码助手在有模式可循时表现更好。
  • CLAUDE.md:定义项目范围内的全局规则,如项目意识、代码结构、测试要求、风格约定和文档标准。
  • INITIAL.md:用于描述初始功能请求,包含功能描述、示例引用、相关文档链接和其它注意事项。

整个工作流程大致如下:

  1. 设置全局规则:在CLAUDE.md中定义项目范围的规范。
  2. 创建初始功能请求:编辑INITIAL.md,详细描述要构建的功能。
  3. 生成 PRP:使用/generate-prp INITIAL.md命令,该命令会阅读功能请求、研究代码库、搜索相关文档,并生成一份全面的 PRP 文档。
  4. 执行 PRP:使用/execute-prp PRPs/your-feature-name.md命令,AI 编码助手会阅读 PRP 中的所有上下文,创建详细的实现计划,执行每个步骤并进行验证,运行测试并修复问题,确保满足所有成功标准。

这种方法大大减少了 AI 智能体的失败,确保了一致性,并使复杂功能的实现成为可能。

结语

上下文工程已经成为 AI 时代更重要的能力。它意味着提示工程师需要转型,可以转变为上下文工程师。这种工程思路要比vibe coding更具流程性和专业性。未来,无论是构建复杂的智能体还是优化现有的 AI 应用,理解并精通上下文工程都将是 AI 工程师的核心竞争力。它将解放工程师,并让人们能够更直观、更强大地控制计算机,实现真正的人机协作。

普通人如何抓住AI大模型的风口?

领取方式在文末

为什么要学习大模型?

目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过 30%。
在这里插入图片描述

随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:
在这里插入图片描述

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!

最后

只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!

在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

在这里插入图片描述

大模型全套学习资料展示

自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。

图片

希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!

01 教学内容

图片

  • 从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!

  • 大量真实项目案例: 带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

02适学人群

应届毕业生‌: 无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌: 非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能突破瓶颈: 传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

image.png

vx扫描下方二维码即可
在这里插入图片描述

本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!

03 入门到进阶学习路线图

大模型学习路线图,整体分为5个大的阶段:
图片

04 视频和书籍PDF合集

图片

从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)

图片

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)
图片

05 行业报告+白皮书合集

收集70+报告与白皮书,了解行业最新动态!
图片

06 90+份面试题/经验

AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)图片
在这里插入图片描述

07 deepseek部署包+技巧大全

在这里插入图片描述

由于篇幅有限

只展示部分资料

并且还在持续更新中…

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

在这里插入图片描述

您可能感兴趣的与本文相关的镜像

ComfyUI

ComfyUI

AI应用
ComfyUI

ComfyUI是一款易于上手的工作流设计工具,具有以下特点:基于工作流节点设计,可视化工作流搭建,快速切换工作流,对显存占用小,速度快,支持多种插件,如ADetailer、Controlnet和AnimateDIFF等

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值