文章介绍了字节提出的上下文折叠框架,使LLM智能体能主动管理工作上下文。该框架允许智能体通过程序分支处理子任务,完成后折叠中间步骤仅保留结果摘要。研究人员开发的FoldGRPO强化学习框架通过特定过程奖励有效优化任务分解。实验表明,基于此框架的智能体仅使用1/10的活跃上下文,就能持平或优于传统方法,性能媲美基于100B+参数量大模型构建的智能体。
智能体在执行长周期任务时,始终受限于上下文长度。为此,字节联合提出上下文折叠(Context-Folding)框架,使智能体能够主动管理其工作上下文。该框架允许智能体通过程序分支进入子轨迹以处理子任务,完成后将中间步骤折叠压缩,仅保留结果摘要。为使该行为可学习,研究人员开发了端到端强化学习框架FoldGRPO,通过特定过程奖励鼓励有效的任务分解与上下文管理。
在复杂长周期任务(Deep Research与软件工程)测试中,基于Seed-OSS-36B-Instruct的折叠智能体仅使用1/10的活跃上下文,持平或优于ReAct基线,显著优于基于摘要的上下文管理方法,并与基于100B+参数量大模型所构建智能体的性能相媲美。

-
论文标题:
Scaling Long-Horizon LLM Agent via Context-Folding
-
论文链接:
https://arxiv.org/abs/2510.11967
-
项目地址:
https://context-folding.github.io/
01
方法
1.上下文折叠框架

为应对智能体在执行长周期任务时的上下文挑战,论文提出上下文折叠,允许智能体通过分支与折叠主动管理其工作上下文。具体而言,论文设计了两个可供智能体调用的上下文管理工具。从主线程开始解决问题q,智能体可以:
- branch(description,prompt):从主线程分支,使用独立工作上下文完成用于解决q的子任务q′。其中“description”是子任务的简要摘要,“prompt”是该分支的详细指令。该工具返回一个模板消息,表明分支已创建。
- return(message):折叠本分支中生成的上下文并返回主线程。“message”用于描述该分支的执行结果。调用此工具后,智能体上下文将切换回主线程,并附加来自分支的模板消息。
上下文折叠智能体的公式建模为:

此处τ<i=(a1, o1, …, ai-1, oi-1)表示第i步之前所有动作-观测对的完整历史记录,F是上下文管理器,负责折叠branch与return工具调用之间交互历史。

在上述示例中,a2至a4之间以及a5至a8之间的交互片段均被折叠。
**推理效率:**在推理过程中,智能体管理着上下文KV-cache:当调用return操作时,KV-cache将回滚至对应的branch位置,该位置的上下文前缀需与调用branch操作前的状态保持一致。这一机制使得上下文折叠方法在推理效率方面表现优异。
**实例化:**为在长周期任务中实例化上下文折叠,采用规划-执行框架,其中智能体在两种状态间交替:
- 规划状态:智能体在主线程进行高层推理,分解任务,并决定何时为子任务创建分支。在此状态下,为保持主上下文聚焦高层策略,不鼓励使用消耗大量token的工具。
- 执行状态:智能体在分支内运行以完成指定子任务。为保持清晰的结构并避免复杂嵌套,执行状态下禁止创建新的分支。
2.FoldGRPO强化学习

为优化上下文折叠智能体,论文提出一种端到端强化学习训练框架FoldGRPO。该框架联合优化包含主线程及子任务分支的完整交互轨迹,并基于上下文折叠建模(公式1)对rollout历史进行折叠,从而在训练过程中保持紧凑的工作上下文。此外,FoldGRPO采用创新的过程奖励设计,可有效指导智能体分支行为的训练。
(1)整体算法设计
在FoldGRPO的每个训练步骤中,对于训练数据集D的任务q,根据上下文折叠建模(公式1)从旧策略
中采样G条轨迹
)被定义为token序列
。每条轨迹τᵢ对应最终奖励Rᵢ∈{0,1},遵循可验证奖励的强化学习。
学习目标:FoldGRPO的学习目标定义为:

其中重要性采样比率与组相对优势估计为:

此处
确保仅优化LLM生成的token,并掩码工具观察token。
其中,FoldGRPO以红色标出两个关键特性:
- 上下文折叠:与在策略优化时将完整交互历史追加至上下文的标准多轮LLM强化学习算法不同,FoldGRPO将上下文管理器F(⋅)应用于历史τi,<t,基于branch-return操作对token τi,t的上下文进行折叠。
- 过程奖励信号:在计算优势
时,加入token级过程奖励
(2)过程奖励设计
在RLVR中,智能体通常通过基于任务成功或失败的二元结果奖励进行优化。然而研究人员发现,这种稀疏奖励信号不足以有效学习上下文折叠行为。具体表现为两种关键失败模式:
- 智能体未能进行策略性规划,将token密集型操作保留在主上下文中未作折叠,迅速耗尽可用token预算;
- 智能体难以进行有效的分支管理,常在子任务完成后未能从子分支返回,反而在同一分支内继续后续工作。
为有效优化折叠智能体,分别针对主轨迹token和分支轨迹token引入token级过程奖励。
**未折叠token惩罚:**当主线程的总上下文长度超过工作上下文限制的50%时,对主线程中所有token(创建分支的回合对应的token除外)施加Qi,t=-1的惩罚。此举旨在惩罚智能体在主线程非分支环境下执行的token密集型操作,并鼓励其将此类操作在分支中执行。
**超范围惩罚:**针对每个分支,采用GPT-5-nano模型,基于分支提示词与返回消息判断智能体是否执行了指定子任务范围之外的操作。若存在此类行为,对该分支内所有token施加Qi,t=-0.2的惩罚,这促使智能体仅执行当前分支既定的确切子任务。
**失败惩罚:**对失败工具调用回合中的所有token施加Qi,t=-1的惩罚。其余所有情况下,Qi,t=0。
3.上下文折叠与其他方法的关联
**与多智能体系统的关系:**上下文折叠可被视为广义多智能体系统的一种特定实现形式,主智能体将子任务委托给子智能体执行。但与主流多智能体系统相比存在以下差异:
- 上下文折叠不采用预定义的子智能体,而是由主智能体动态创建;
- 所有智能体共享相同的上下文前缀,使其对KV-cache友好;
- 主智能体与子智能体交替运行而非并行执行。
**与基于上下文摘要方法的关系:**相较于基于启发式摘要的上下文管理方法(其在任意节点丢弃细节信息),上下文折叠可视为一种与子任务边界对齐的可学习摘要机制。这能确保推理在执行期间得以完整保留,仅在其效用实现后才被压缩。
02
实验

表1总结了在BrowseComp-Plus(Deep Research任务)和SWE-Bench Verified(软件工程任务)数据集上的主要结果。对于折叠智能体,论文将LLM的最大上下文长度设定为32,768个token,并允许最多创建10个分支,从而实现327,680个token的理论上下文上限。
在未进行强化学习训练时,折叠智能体的表现已超越32K上下文的ReAct及上下文摘要基线,但尚未达到长上下文ReAct智能体的性能水平。经过强化学习训练后,智能体性能显著提升:在BrowseComp-Plus数据集上Pass@1达到0.620(+20%),在SWE-Bench Verified数据集上Pass@1达到0.580(+8.8%)。折叠智能体不仅超越了所有基线(包括具有相同327K最大上下文长度的长上下文ReAct智能体),更与基于100B+参数量大模型所构建智能体的性能相媲美。
深入分析表明,FoldGRPO性能显著优于基准GRPO(如在BrowseComp上提升7.7%,在SWE-Bench上提升1.6%);其次,性能提升与工具调用频率的增加相关,而强化学习训练进一步促进了该行为。表明论文框架使智能体能够对环境进行更全面的探索,从而发现更鲁棒的解决方案。

上图展示了折叠智能体在BrowseComp-Plus上的定性案例。针对需要满足特定条件的文献检索任务,智能体首先探索高层主题并确定候选文献,随后通过分支搜索验证具体条件,在获得关键信息但未能完全确认所有要求后,进一步扩展搜索范围并最终找到正确答案。在此过程中,4个分支将完整的107K token上下文压缩至仅6K。
AI时代,未来的就业机会在哪里?
答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具,到自然语言处理、计算机视觉、多模态等核心领域,技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。

掌握大模型技能,就是把握高薪未来。
那么,普通人如何抓住大模型风口?
AI技术的普及对个人能力提出了新的要求,在AI时代,持续学习和适应新技术变得尤为重要。无论是企业还是个人,都需要不断更新知识体系,提升与AI协作的能力,以适应不断变化的工作环境。
因此,这里给大家整理了一份《2025最新大模型全套学习资源》,包括2025最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题等,带你从零基础入门到精通,快速掌握大模型技术!
由于篇幅有限,有需要的小伙伴可以扫码获取!

1. 成长路线图&学习规划
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。

2. 大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)

3. 大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。

4. 大模型项目实战
学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

5. 大模型行业报告
行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

6. 大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

为什么大家都在学AI大模型?
随着AI技术的发展,企业对人才的需求从“单一技术”转向 “AI+行业”双背景。企业对人才的需求从“单一技术”转向 “AI+行业”双背景。金融+AI、制造+AI、医疗+AI等跨界岗位薪资涨幅达30%-50%。
同时很多人面临优化裁员,近期科技巨头英特尔裁员2万人,传统岗位不断缩减,因此转行AI势在必行!

这些资料有用吗?
这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


大模型全套学习资料已整理打包,有需要的小伙伴可以
微信扫描下方优快云官方认证二维码,免费领取【保证100%免费】

1135

被折叠的 条评论
为什么被折叠?



