一篇吃透Meta黑科技!REFRAG框架让RAG上下文暴增16倍,Context Engineering终极指南

最近一段时间,Context Engineering(上下文工程)的热度已无需多言,而 Meta 超级智能实验室发布的首篇论文,便聚焦于该领域的核心议题——模型上下文智能压缩,展开了深度研究。

相信在开发 RAG与 Agent时,上下文太长导致输出效果崩掉,几乎做AI 应用人的家常便饭。

其具体体现有二:

长上下文导致了更高内存成本,模型的首 token 生成时间(TTFT)会随之呈二次方增加。

冗余计算严重:RAG 与 Agent 的上下文一般是多个检索段落的组合,段落间的关联几乎为零。但大模型的注意力机制会对所有token 间的关联做计算,导致了大量冗余计算。

在此背景下,Meta团队提出了REFRAG 框架,在仅保留核心内容的原始token情况下,对RAG提供的低相关chunk内容做智能压缩,从而在不损失性能的前提下,实现 30.85 倍 TTFT 加速、将 LLMs 上下文处理长度扩展 16 倍。

经过实测,该方案在 RAG、多轮对话、智能体及 Web 级检索等 高吞吐量、低延迟场景中表现尤为突出 。

01

如何智能压缩上下文

以下是整个策略的核心流程图演示,整体可以分为三部分:

第一步:上下文分块与压缩

RAG 检索到的长文档,通常动辄几千上万 token,直接丢进 LLM 会让显存和计算成本爆炸。 REFRAG 的做法是:

  • 先把文档切成固定大小的 块(chunk)。
  • 每个块经过一个轻量级编码器(比如 RoBERTa)得到 块嵌入(chunk embedding)。
  • 再用一个投影层,把这些嵌入映射到与解码器 token embedding 相同的维度。

这样做的好处是:LLM 不再处理每个原始 token,而是处理“压缩后的一整个块”。如果一个块里原来有 k 个 token,现在只用一个 embedding 来表示,那么输入长度就缩短了约 k倍,显著减少注意力计算量和显存占用。

第二步:选择性扩展与自回归保留

光压缩可能会丢失信息,尤其是对关键块(比如问题答案所在段落)。REFRAG 引入了一个 RL(强化学习)策略,用来动态决定:哪些块必须保留原始 token(不压缩),以保证信息完整。哪些块可以用压缩的embedding代替。

这样就能 兼顾准确性和效率。同时,因为 LLM 是自回归生成的(依赖前文 token),REFRAG 的方法保证了原始 token 仍能参与生成,不破坏上下文连续性。这对多轮对话等场景尤其重要。

第三步:高效推理与上下文扩展

REFRAG 还有两点优化:

  • 复用检索阶段的块嵌入:RAG 在检索时已经算过一次 chunk embedding,推理时直接拿来用,省掉冗余计算。
  • 注意力复杂度下降:普通注意力是和 token 数量成平方增长的。如果每个 chunk 代表一组 token,复杂度就变成和 chunk 数量平方关系,大幅降低。

整体结果来看,该方案在短上下文下,可以实现 k 倍的首 token 延迟(TTFT)加速;在长上下文下,加速比最高可达 k的平方 倍。同时,该方案还能把 LLM 的上下文长度扩展到 16 倍 以上。

02

关键技术细节

REFRAG 的方法体系围绕 “让编码器与解码器高效协同处理长上下文” 展开,核心流程分为三个阶段:

1.编码器 - 解码器对齐

持续预训练(CPT) 以 “下一段预测任务” 为核心:每个训练样本含 s 个前序 token 和 o 个后续 token(共 T 个),将前 s 个输入编码器,其输出用于辅助解码器预测后 o 个 token。

目标是让解码器基于压缩上下文(编码器输出)的生成结果,尽可能接近基于完整上下文的结果,为下游任务(如 RAG)奠定基础。

2.CPT 的关键训练方案(保障对齐效果)

(1)重建任务:先冻结解码器,仅训练编码器和投影层 —— 让编码器输入 s 个 token 后,能生成让解码器准确重建出这 s 个 token 的嵌入。目的是确保编码器压缩信息损失最小、投影层能将嵌入转换为解码器可理解的格式,同时迫使解码器依赖输入的上下文记忆(而非自身参数)。完成后解冻解码器,正式启动 CPT。

(2)课程学习:因直接训练难度大(块长度 k 增加会导致 token 组合呈指数级增长),采用 “从简到难” 的训练策略:先让模型用单个块嵌入重建 k 个 token,再逐步增加块数量和重建长度;训练数据也从以简单任务为主,逐渐过渡到以复杂任务为主,帮助模型循序渐进掌握能力。

3.性能增强:选择性压缩与下游适配

(1)选择性压缩:引入 RL 策略,以 “下一段预测困惑度” 为负奖励(困惑度越高说明块越重要),决定保留哪些上下文块的原始形式(不压缩),仅压缩次要块;同时微调编码器和解码器,使其适配 “压缩 + 未压缩” 混合输入,兼顾效率与性能。

(2)下游适配:完成 CPT 和选择性压缩优化后,通过有监督微调(SFT)让模型适配具体下游任务(如 RAG、多轮对话)。

03

关键效果与核心场景解读

Meta 团队在 Slimpajama(书籍、arXiv 领域)、PG19、Proof-Pile 等主流数据集,以及 RAG、多轮对话、长文档摘要等任务中对 REFRAG 进行了全面验证,其优势主要体现在效率提升、上下文扩展、场景适配三个维度。

基于以上能力, REFRAG 的核心落地场景主要有三:

(1)增强版 RAG:支持 Web 级高效检索

在 Web 级搜索等需处理大量检索结果的场景中,REFRAG 可 “以更低延迟纳入更多有效信息”:

延迟持平情况下:REFRAG 可处理 8 个检索段落(LLaMA 仅能处理 1 个),在 MMLU、BoolQ 等知识密集型任务中精度提升 1.5% 以上。

多段落处理场景中:处理 10 个检索段落时,TTFT 加速 5.26 倍,且在弱检索器(模拟真实场景中检索误差)下优势更明显。

(2)多轮对话:突破上下文窗口限制

传统 LLaMA 因 4K 上下文窗口限制,多轮对话中需截断历史信息,导致回答连贯性下降;REFRAG 无需扩展位置编码,通过压缩机制实现长对话记忆:

在 TopiOCQA、ORConvQA 等知识密集型多轮对话数据集上,面对 10 个检索段落 + 6 轮对话的长上下文,性能全面优于 LLaMA 微调模型,其中 ORConvQA 任务精度提升超 30%。

(3)长文档摘要:提升科学性文献处理能力

在 arXiv、PubMed 等长 scientific 文献摘要任务中,REFRAG 可通过高压缩率纳入全文档信息,生成摘要的完整性与准确性更优:

相同延迟下(解码器生成 token 数量一致),Rouge-1 指标较 LLaMA 提升 15%-20%,尤其在医学、物理等需精准提炼核心结论的领域表现突出。

如何学习大模型 AI ?

我国在AI大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着Al技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国Al产业的创新步伐。加强人才培养,优化教育体系,国际合作并进,是破解困局、推动AI发展的关键。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

2025最新大模型学习路线

明确的学习路线至关重要。它能指引新人起点、规划学习顺序、明确核心知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。

对于从来没有接触过AI大模型的同学,我帮大家准备了从零基础到精通学习成长路线图以及学习规划。可以说是最科学最系统的学习路线。

在这里插入图片描述

针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。

大模型经典PDF书籍

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路!

在这里插入图片描述

配套大模型项目实战

所有视频教程所涉及的实战项目和项目源码等
在这里插入图片描述

博主介绍+AI项目案例集锦

MoPaaS专注于Al技术能力建设与应用场景开发,与智学优课联合孵化,培养适合未来发展需求的技术性人才和应用型领袖。

在这里插入图片描述

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

为什么要学习大模型?

2025人工智能大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

在这里插入图片描述

适合人群

  • 在校学生:包括专科、本科、硕士和博士研究生。学生应具备扎实的编程基础和一定的数学基础,有志于深入AGI大模型行业,希望开展相关的研究和开发工作。
  • IT行业从业人员:包括在职或失业者,涵盖开发、测试、运维、产品经理等职务。拥有一定的IT从业经验,至少1年以上的编程工作经验,对大模型技术感兴趣或有业务需求,希望通过课程提升自身在IT领域的竞争力。
  • IT管理及技术研究领域人员:包括技术经理、技术负责人、CTO、架构师、研究员等角色。这些人员需要跟随技术发展趋势,主导技术创新,推动大模型技术在企业业务中的应用与改造。
  • 传统AI从业人员:包括算法工程师、机器视觉工程师、深度学习工程师等。这些AI技术人才原先从事机器视觉、自然语言处理、推荐系统等领域工作,现需要快速补充大模型技术能力,获得大模型训练微调的实操技能,以适应新的技术发展趋势。
    在这里插入图片描述

课程精彩瞬间

大模型核心原理与Prompt:掌握大语言模型的核心知识,了解行业应用与趋势;熟练Python编程,提升提示工程技能,为Al应用开发打下坚实基础。

在这里插入图片描述

RAG应用开发工程:掌握RAG应用开发全流程,理解前沿技术,提升商业化分析与优化能力,通过实战项目加深理解与应用。 在这里插入图片描述

Agent应用架构进阶实践:掌握大模型Agent技术的核心原理与实践应用,能够独立完成Agent系统的设计与开发,提升多智能体协同与复杂任务处理的能力,为AI产品的创新与优化提供有力支持。
在这里插入图片描述

模型微调与私有化大模型:掌握大模型微调与私有化部署技能,提升模型优化与部署能力,为大模型项目落地打下坚实基础。 在这里插入图片描述

顶尖师资,深耕AI大模型前沿技术

实战专家亲授,让你少走弯路
在这里插入图片描述

一对一学习规划,职业生涯指导

  • 真实商业项目实训
  • 大厂绿色直通车

人才库优秀学员参与真实商业项目实训

以商业交付标准作为学习标准,具备真实大模型项目实践操作经验可写入简历,支持项目背调

在这里插入图片描述
大厂绿色直通车,冲击行业高薪岗位
在这里插入图片描述

文中涉及到的完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值