上下文工程(Context Engineering,简称 C.E.)是一个系统性的学科,旨在设计、优化和管理提供给大型语言模型(LLMs)的信息载体,从而提升模型性能。
上下文工程的分类法主要可以从两个维度进行详细阐述:技术实现维度(基础组件与系统实现)和功能目的维度(上下文类别与操作策略)。
一、 技术分类法:基础组件与系统实现
一项对超过 1400 篇研究论文进行的系统分析建立了一个统一的分类框架,将上下文工程分解为基础组件(Foundational Components)及其集成的系统实现(System Implementations)。
1. 基础组件 (Foundational Components)
基础组件侧重于对上下文信息进行操作和管理的核心技术机制。
| 编号 | 基础组件名称 | 核心关注点及内容 |
| (1) | 上下文检索与生成 (Context Retrieval and Generation) | 涵盖基于提示词的生成(prompt-based generation,例如思维链 Chain-of-Thought)以及外部知识获取(External Knowledge Acquisition)。该类别还包括动态上下文组装 (Dynamic Context Assembly) |
| (2) | 上下文处理 (Context Processing) | 解决长期序列处理、自我精炼(Self-refinement)和结构化信息集成。例如,用于处理长上下文的 Mamba、LongNet 等模型架构,以及 Reflexion 等自我精炼机制。 |
| (3) | 上下文管理 (Context Management) | 涵盖内存层次结构(Memory Hierarchies)、压缩(Compression)和优化。这包括上下文压缩技术、KV 缓存管理以及上下文窗口管理。 |
2. 系统实现 (System Implementations)
系统实现描述了如何将上述基础组件架构性地集成到复杂的智能系统中。
| 编号 | 系统实现名称 | 核心架构特点及内容 |
| (1) | 检索增强生成 (Retrieval-Augmented Generation, RAG) | 包括模块化 RAG 架构 (Modular RAG Architectures)、Agentic RAG 系统 (Agentic RAG Systems) 和图增强 RAG (Graph-Enhanced RAG)。 |
| (2) | 内存系统 (Memory Systems) | 使得系统能够进行持久化交互。例如,MemGPT 和 MemoryBank 等。 |
| (3) | 工具集成推理 (Tool-Integrated Reasoning) | 允许 LLM 进行函数调用和环境交互。例如 ReAct 和 Toolformer,MCP等。 |
| (4) | 多智能体系统 (Multi-Agent Systems) | 协调通信和编排,例如利用通信协议 (Communication Protocols) 和协调策略 (Coordination Strategies)。 |
二、 功能分类法:上下文类别与操作策略
在实践层面,上下文可以根据其在任务中扮演的角色进行分类,而上下文工程则可以根据其操作内容分为四大策略。
1. 上下文的核心类别 (Context Categories)
上下文是提供给大语言模型(LLMs)的,用于完成下一步推理或生成任务的全部信息的集合。这些信息可分为三类:
• 指导性上下文 (Directive/Instructional Context):
◦ 核心功能: 指导模型“做什么”以及“如何做”,为模型的行为设定框架、目标和规则。
◦ 实践关系: 提示词工程主要优化此类上下文。
◦ 内容包括: 系统提示词(System Prompts)、任务描述、少样本示例(Few-Shot Examples)以及输出格式定义。
• 信息性上下文 (Informational Context):
◦ 核心功能: 告诉模型“需要知道什么知识”,提供解决问题所必需的事实、数据和知识。
◦ 内容包括: 检索增强生成(RAG)获取的知识,以及模型的记忆(分为短期记忆、长期记忆,以及 Scratchpad/思考本等)。
• 行动性上下文 (Actionable Context):
◦ 核心功能: 告诉模型“能做什么”以及“做了之后的结果”,提供与外部世界交互的能力。
◦ 内容包括: 工具定义、工具调用和结果,以及工具追踪。例如,模型上下文协议(MCP)本质上就是为了行动性上下文和部分信息性上下文的标准化交互所做的努力,为复杂的系统工程提供了标准化接口。
2. 上下文工程的四大操作策略 (Operational Strategies)
为了应对 LLM 在处理复杂或长时间任务时可能出现的性能下降、成本增加和上下文溢出等挑战,业界逐渐形成了一套系统性的应对框架,可分为四个操作策略:
• 写入 (Writing):
目的: 将上下文信息持久化,以便在未来按需取用。
方式: 分为会话内写入(如将中间思考、计划或临时数据写入草稿/思考本,这是一种轻量级非持久化写入)和持久化写入(将具有长期价值的信息,如用户画像总结、关键事实,写入外部的记忆系统,例如向量数据库或知识图)。
• 选取 (Selection):
目的: 在每次调用模型之前,从所有可用信息源中动态拉取与当前子任务最相关的信息,这是保证上下文信噪比的关键。
方式: 包括确定性选取(根据预设规则固定加载上下文,例如加载项目根目录下的特定文件)、模型驱动选取(利用模型自身能力进行筛选)和检索式选取(最主流的方式,通过相似度检索从记忆或外部知识库拉取信息)。
• 压缩 (Compression):
目的: 在信息进入上下文窗口之前,对其进行有损或无损压缩。目的是用更少的 token 来承载最核心的信号,从而在有限的上下文窗口中容纳更多有效信息。
方式: 例如,系统在上下文窗口接近溢出时采取自动压缩和自动总结上下文的策略。
• 隔离 (Isolation):
目的: 在信息架构层面上进行上下文管理,在多信息流之间设置边界,管理系统的复杂性。
方式: 隔离的经典体现是多 Agent 架构。子 Agent 充当智能过滤器,在各自的领域内消化大量原始信息,然后将最关键、经过压缩和提炼的摘要提交给主 Agent。隔离可以很大程度上避免长上下文带来的上下文干扰和冲突问题,并提高了上下文中的信息密度。
总而言之,上下文工程强调从设计到维护的系统性方法,其目标是在模型做出决策之前,为其组装出最恰到好处的上下文组合。
如何高效转型Al大模型领域?
作为一名在一线互联网行业奋斗多年的老兵,我深知持续学习和进步的重要性,尤其是在复杂且深入的Al大模型开发领域。为什么精准学习如此关键?
- 系统的技术路线图:帮助你从入门到精通,明确所需掌握的知识点。
- 高效有序的学习路径:避免无效学习,节省时间,提升效率。
- 完整的知识体系:建立系统的知识框架,为职业发展打下坚实基础。
AI大模型从业者的核心竞争力
- 持续学习能力:Al技术日新月异,保持学习是关键。
- 跨领域思维:Al大模型需要结合业务场景,具备跨领域思考能力的从业者更受欢迎。
- 解决问题的能力:AI大模型的应用需要解决实际问题,你的编程经验将大放异彩。
以前总有人问我说:老师能不能帮我预测预测将来的风口在哪里?
现在没什么可说了,一定是Al;我们国家已经提出来:算力即国力!
未来已来,大模型在未来必然走向人类的生活中,无论你是前端,后端还是数据分析,都可以在这个领域上来,我还是那句话,在大语言AI模型时代,只要你有想法,你就有结果!只要你愿意去学习,你就能卷动的过别人!
现在,你需要的只是一份清晰的转型计划和一群志同道合的伙伴。作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

1698

被折叠的 条评论
为什么被折叠?



