一文搞定上下文工程:1400+文献背后的关键知识点系统梳理

1. 为什么推荐读这篇上下文工程的综述?

为什么我会想要去看上下文工程呢?因为每一个尝试着深度使用AI工具的人,都免不了要一遍一遍调试提示词——你很少能够一次性拿到理想的结果,哪怕你已经在和这个世界上号称最顶级的AI合作。

这大概率不是因为你的要求超过了AI的能力边界,而是因为AI没有拿到足够的信息。

我最初只是想要把提示词写得更好一点,就去扒了一下提示词工程。然后发现网上都在说提示词工程被上下文工程给取代了,于是也去看了一眼这篇关于“上下文工程”的综述——A Survey of Context Engineering for Large Language Models。

我非常的惊喜,因为它提供了一个特别清晰的框架来回答了“上下文工程是什么、为什么、怎么做”的问题。它描绘了一个“全景地图”来让读者理解现在最火的AI系统“面临什么样的限制”,“已经实施了什么样的解决方案”,“还有什么待解决的问题”。

更重要的是,我觉得它是一个“由浅入深”的研究指南——这篇综述总共引用了1401篇文献,但是结构非常清晰,表达非常简洁。

框架的魅力就是把以前你找到的各种乱七八糟的碎片,都有条理地排列整齐,让你不再到处抓瞎,知道大概有几条路,从而分析你想要去哪一条路。

对于小白来说,就算这篇文章读起来一知半解,也可以通过文章对于各种AI系统的概述来迅速理解AI世界的轮廓和脉络;对于想要深入研究的人来说,可以顺着文章的引用文献继续去挖掘,了解具体算法和系统的设计细节。

(看看下面这张信息高度浓缩的“上下文工程”框架图,是不是非常清晰?)

在这里插入图片描述

02. 综述文章的结构

这篇综述文章的结构可见下面的思维导图,核心是以下四个部分:

  • 定义+介绍上下文工程的“基础组件”;
  • 介绍在“基础组件”上形成的几个重要的“系统实现”;
  • 介绍评估上下文工程表现的系统性方法以及评估后的核心发现;
  • 指出未来的研究方向;

图片

03. “上下文工程”是什么以及为什么需要它?

我在这里先说一下我的理解+提出部分我觉得很给我启发的原文。

同一个大语言模型,在不同的人手里使用效果是不一样的。大语言模型就像是一个对“你本人”和“你的任务”一无所知,但是干活能力特别强的高级实习生。

在这个高级实习生能力不变的条件下,TA能不能交付出你满意的结果,取决于你这个领导能不能让TA融入你的系统,了解整个事情的前因后果。

这跟工作中干活是一样的道理——如果只听到领导说“调研一下XX竞品”就开始干活,容易跑偏十里地不自知。最好先跟领导确认“这次调研的汇报对象是谁,调研任务产生的背景是什么,有没有什么重点关注的方向”。然后还要结合你长期积累的业务认知,才能够交付出正中红心的答案。

大模型的表现也取决于TA获取到的“上下文”,没有这些信息,这个AI有千亿参数也不会表现得让你满意。更可况我们对于LLM的要求已经越来越高,从期待LLM完成简单的指令服从,到期待TA们成为复杂多面的核心推理引擎。

这意味着我们和LLM交互的方式不能够仅仅是静态的、单一的、碎片化的“prompt”,而是更加高级和复杂的工程系统。

上下文工程会在以下3个方面带来好处。

第一个是解决AI的固有缺陷。

最明显的就是,AI能够获取的上下文是有限的——AI有一个“上下文窗口”,一旦我们输入的信息超过了这个限度,AI就无法一次性处理了。

同时AI处理信息消耗的资源量级很大,要远超我们人类处理信息消耗的资源。资源分为“时间”和“空间”两个维度,分别对应了AI处理信息时面临的“性能”和“内存”瓶颈。例如Transformer架构的模型,要储存输入序列每一个对象的K、V、Q值,这意味着当序列长度非常大时,注意力矩阵的计算和储存会消耗大量的计算资源;但是如果用LSTM,则并行计算的程度很低,处理超长序列的时间会被狠狠拉长,变得不可承受。

还有AI生成的内容可靠性是不足的。按照论文的总结,不可靠表现在:LLMs频繁出现幻觉胡言乱语、不遵循输入上下文、对输入变化的不当敏感,以及会生产语法看似正确但缺乏语义深度或连贯性的内容。

如何避免这些AI固有缺陷,让模型完成复杂任务,要求极其精巧的、系统的架构设计,这是上下文工程的领域。

第二个好处是提升AI的表现。这个提升不是通过重新设计大模型架构,或者重新训练大模型得来的,就是通过良好组织的上下文来实现的。相当于在基座模型能力不变的前提下,找到极致发挥TA能力的方案。比如思维链方法,能够通过中间步骤实现复杂推理,显著提升模型推理的正确性。

第三个好处是提升资料的利用率。我们都知道在训练大模型的时候需要海量的数据,上下文工程在“把资料物尽其用”方面发力。它们会利用上下文线索和先验知识来优化上下文长度,同时保持回答的质量,这对于那些资料匮乏的领域特别有价值。

总结来说,如何充分利用已有的上下文窗口,极致压榨已经获得的资源,得到质量超高的模型输出,是“上下文工程”研究的核心。

用论文官方的话来表达:

“上下文C是一个动态结构化的信息组件集合c1、c2,…,cn。这些组件通过一系列函数进行获取、过滤和格式化处理,最终由高级函数A进行协调和组装。

上下文工程要解决的是这样一个问题:在(算力和上下文窗口等)约束下,寻找一组理想的上下文生成函数集,以最大化LLM输出的预期质量。”

你仔细思考一下跟人类是一样的——你自己也只是能够拥有有限记忆的生物,你自己也要消耗精力和时间去实施动作、完成任务。

“上下文工程”跟你在搭建属于自己的“决策机制”、“标准化流程”和“知识管理系统”没有什么不同,是不是有些细思极恐?

上下文工程是找到一系列基础信息组件,并且用一个总协调函数把他们组织起来,这些信息可以大概分为以下几个类别,我觉得这个分类框架也可以给我们使用AI的人一些启示:

  • C_instr :系统指令和规则(上下文检索与生成)。
  • C_Know:外部知识,通过如检索增强生成(RAG)等函数或从集成知识图谱中获取。
  • C_tools:可用的外部工具的定义和签名(涉及能力是函数调用与工具集成推理)。
  • C_mem:先前交互中的持久信息(内存系统;上下文管理系统)。
  • C_state:用户、环境或多智能体系统的动态状态(多智能体系统与编排)。
  • C_query:用户的即时请求。

04. Context Scaling面临的挑战:

论文特别指出了Context Scaling的两个维度上的挑战。用我自己的话来理解就是,如果想要把上下文处理好,有两个维度的困难需要攻克,这两个维度共同定义了上下文信息处理的范围和复杂程度。

第一个维度是长度缩放(Length Scaling),也就是单次处理超长上下文时面临的挑战。首先要研究怎么把上下文窗口搞得长一点,其次还要弄清楚上下文很长之后,大模型要怎么对这么一大段信息保持连贯性的理解,不要遗忘、瞎编,还能在各种任务中灵活使用(像是人类一样)。

这里涉及了复杂的注意力机制(attention mechanisms)和内存管理技术(memory management techniques)的研究。

图片

第二个维度是多模态与结构化缩放(Multi-modal and Structural Scaling)。我们现在要求大模型处理的不是只有文本信息了,而是图片、音频、视频、大型数据库等各种模态合并在一起的综合信息。同时,我们也不满足于只拥有静态知识的大模型,我们需要模型理解和处理动态变更的信息。

因此上下文工程要有动态编排和自适应的能力,并且把多模态的信息组织起来给到大模型。这涉及了更系统化的信息管理,包括时间、空间、参与者状态、意图理解、文化相关的上下文管理。

图片

现代上下文工程需要应对上述两个维度的挑战。处理的数据类型包含:冗长文本信息、结构化知识图谱(knowledge graphs)、多模态输入(text, images, audio, video)、时间序列、人类自然理解的隐含上下文线索。

研究内容从参数缩放(parameter scaling)转向开发能够理解复杂、模糊上下文的系统,目的是让AI能够面对复杂世界完成复杂任务。

05. 小结

这篇先介绍了一下综述论文里面提出的“上下文工程的定义”和“为什么需要上下文工程”的部分,下篇文章继续介绍论文里面提出的“上下文工程的基础组件”和“系统实现”框架。

这里我还是要再次强调我的观点:建议感兴趣的朋友都去阅读原文,别人或者AI的总结其实都是不够的,信息漏损太大了。

没有任何人或者AI能够代替你去进行核心体验,核心体验包括学习、生活、输出、创造等等等。

截至25年7月,拥有最长上下文窗口的模型为Magic.dev 的 LTM-2-Mini,据说一次性可以处理1个亿token,相当于一次性记住 750 部10万字小说的细节。

但是就算AI能够一次性读1个亿的token,你的人生核心主角仍然是你自己,你仍然需要自己去吸收、理解、组织,让知识改你脑子里的神经回路,而不是AI的。

AI的能力要为你服务而不是替代你去体验生活,我最近很喜欢的合作方式是让AI作为“粗处理”的助理,TA需要帮我解释我不熟悉的专业术语,需要帮我提炼出文章的结构,需要帮我调查一些示例,这些都是为了我更好的消化原文做准备。

普通人如何抓住AI大模型的风口?

领取方式在文末

为什么要学习大模型?

目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过 30%。
在这里插入图片描述

随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:
在这里插入图片描述

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!

最后

只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!

在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

在这里插入图片描述

大模型全套学习资料展示

自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。

图片

希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!

01 教学内容

图片

  • 从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!

  • 大量真实项目案例: 带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

02适学人群

应届毕业生‌: 无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌: 非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能突破瓶颈: 传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

image.png

vx扫描下方二维码即可
在这里插入图片描述

本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!

03 入门到进阶学习路线图

大模型学习路线图,整体分为5个大的阶段:
图片

04 视频和书籍PDF合集

图片

从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)

图片

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)
图片

05 行业报告+白皮书合集

收集70+报告与白皮书,了解行业最新动态!
图片

06 90+份面试题/经验

AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)图片
在这里插入图片描述

07 deepseek部署包+技巧大全

在这里插入图片描述

由于篇幅有限

只展示部分资料

并且还在持续更新中…

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

在这里插入图片描述

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值