ACE:无须训练,上下文自我演进模型

部署运行你感兴趣的模型镜像

ACE:无须训练,上下文自我演进模型

《Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models》,这是上下文工程这个方向近期还不错得一篇论文,斯坦福和伯克利联合出品。

🙋当前问题

目前超长上下文的主要优化手段是压缩,但是当前广泛的压缩方法主要有两个大的问题:

1、简短偏置(brevity bias),许多提示优化过分追求简洁通用,多次迭代优化后,倾向生成短小、泛化的指令,牺牲多样性与领域细节。比如在测试生成任务中,不断收敛为重复句式“编写单元测试确保函数行为正确”,导致性能停滞。

2、上下文塌陷(context collapse),模型在迭代重写时往往会压缩内容,导致信息丢失与性能崩溃。论文以AppWorld案例为例,模型反复整块重写已有上下文,容易把长篇策略压缩成几行摘要。比如在第60步时上下文含18282个token、准确率66.7%,下一步却被压缩到122个token,准确率骤降至57.1%,甚至低于没适配模型。说明单次全量重写会“抹除”积累的知识。

📖论文思路

基于提出的自适应记忆机制,ACE(Agentic Context Engineering) 框架,大概思路就是把上下文看成持续演进的作战手册(playbook),通过模块化的生成、反思与整理过程积累、优化与组织策略。ACE通过结构化、增量式更新机制防止上下文塌陷,能够在长上下文模型中保持细节与可扩展性。大模型和人不同,长而且详细的上下文对模型更有效,因为模型能在推理时自主筛选相关信息。简化上下文反而剥夺了模型的策略多样性。

ACE 通过“增长与精炼(grow-and-refine)”原则维持上下文的细节、结构化与可扩展性。在离线(如系统提示优化)与在线(如测试时自适应记忆)场景中,通过“生成-反思-整理”三阶段模块化流程,让上下文持续积累策略与经验。

🌟关键框架和方法

1、ACE框架由三种角色组成

生成器(Generator)产生推理轨迹;反思者(Reflector)从成功与失败中提炼洞察;策展者(Curator)将洞察转化为结构化更新。这种分工模拟人类学习过程(实验-反思-归纳),避免单模型过载。

2、三大核心创新

  • 反思模块独立化——将评估与整理分离,提升上下文质量。
  • 增量式 delta 更新——用局部修改取代整块重写,大幅降低延迟与计算量。
  • 增长-精炼机制——在上下文扩展同时控制冗余。

3、更新、增长与精炼

ACE 将上下文表示为结构化条目(bullets)集合,不是单个提示文本。每个条目包含元数据(唯一 ID、统计计数等)、内容单元(策略、概念、错误模式等)。生成器在使用中标记哪些条目有用或误导,反思者据此提炼修正建议,策展者再合并为“delta更新”。实现了局部更新(只改动相关条目),精细检索(生成器可调用最相关知识),增量演化(高效合并与去重)

ACE 定期对上下文执行去重与精炼,新条目追加至末尾,旧条目在原位更新计数;利用语义嵌入进行相似度去重。这种机制可按需触发(每次更新或超过窗口时),兼顾延迟与准确性。

👍效果

在AppWorld上,ACE的ReAct+ACE平均比GEPA高11.9%,比Dynamic Cheatsheet高7.6%。

即使在无标注反馈条件下,ACE比基线提升14.8%,只看执行信号(如代码运行成功与否)就可以自我改进。

在AppWorld排行榜上,ACE与GPT-4.1驱动的IBM-CUGA持平,在更难的测试集上反超。

Github上已经有开源的论文实现Demo:github.com/shivkumarganesh/ace_streamlit_demo_with_viz

最近这几年,经济形式下行,IT行业面临经济周期波动与AI产业结构调整的双重压力,很多人都迫于无奈,要么被裁,要么被降薪苦不堪言。但我想说的是一个行业下行那必然会有上行行业,目前AI大模型的趋势就很不错,大家应该也经常听说大模型,也知道这是趋势,但苦于没有入门的契机,现在他来了,我在本平台找到了一个非常适合新手学习大模型的资源。大家想学习和了解大模型的,可以**点击这里前往查看**

您可能感兴趣的与本文相关的镜像

ACE-Step

ACE-Step

音乐合成
ACE-Step

ACE-Step是由中国团队阶跃星辰(StepFun)与ACE Studio联手打造的开源音乐生成模型。 它拥有3.5B参数量,支持快速高质量生成、强可控性和易于拓展的特点。 最厉害的是,它可以生成多种语言的歌曲,包括但不限于中文、英文、日文等19种语言

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值