Compaction(上下文压缩/压实)是 OpenAI 在 2025 年 11 月 19 日发布的 GPT-5.1-Codex-Max 模型中最核心的技术创新之一。它专门解决大语言模型在长时序、代理式(agentic)任务中面临的上下文窗口限制问题,让模型能够处理原本会因“记忆溢出”而失败的复杂编程任务。
1. 传统上下文窗口的痛点
大多数大模型(包括之前的 GPT-5.1-Codex)都有一个固定的上下文窗口(如几万到几十万 token)。
当任务持续时间长、交互次数多时(例如调试一个大型仓库、反复运行测试、迭代代码),上下文会逐渐填满旧的对话历史、工具调用日志、测试输出等。
一旦填满,模型要么被迫截断历史(导致早期任务目标或关键代码状态丢失,出现“失忆”),要么需要人工重启会话。
结果:长任务容易中断、循环或产生幻觉(hallucination),无法连续工作几小时以上。
2. Compaction 的核心原理
Compaction 不是简单扩大上下文窗口(像某些竞品那样追求百万甚至千万 token),而是让模型主动、智能地管理自己的记忆:

最低0.47元/天 解锁文章
3911

被折叠的 条评论
为什么被折叠?



