Ring-linear模型系列革新长文本推理:混合架构实现成本骤降与性能跃升
【免费下载链接】Ring-mini-2.0 项目地址: https://ai.gitcode.com/hf_mirrors/inclusionAI/Ring-mini-2.0
在当今自然语言处理领域,长文本推理场景对模型的效率和性能提出了前所未有的挑战。传统模型往往在计算开销和存储需求上难以兼顾,制约了其在实际应用中的广泛部署。近日,Ring-linear模型系列横空出世,其中Ring-mini-linear-2.0与Ring-flash-linear-2.0两款模型凭借创新的混合架构,将线性注意力与Softmax Attention巧妙融合,成功实现了长文本推理中I/O和计算开销的显著降低。与某320亿参数的密集模型相比,该系列模型将推理成本大幅削减10倍;即便与原版Ring系列相比,成本也降低了50%以上,为大模型的高效应用开辟了全新路径。
模型架构探秘
Ring-linear模型深度借鉴并优化了MoE(Mixture-of-Experts)架构,通过1/32的激活比例巧妙实现了模型的稀疏性,在保证性能的同时极大提升了效率。整个模型由N个层组有序构成,每个层组内部包含M个线性注意力块(Linear Attention Block)和一个Grouped Query Attention(GQA)块。研发团队在资源受限的条件下,历经大量Scaling Law实验与Ablation Studies,最终敲定了最优设计方案。具体而言,Ring-mini-linear-2.0拥有164亿总参数,其中激活参数为9.57亿;而Ring-flash-linear-2.0则更为庞大,总参数达到1042亿,激活参数为61亿。
混合线性注意力机制:效率与性能的完美平衡
传统Softmax Attention的计算复杂度随序列长度呈二次方增长,即$O(n^2d)$,这在长文本处理时无疑是巨大的负担,同时Key-Value(KV)缓存的存储需求也线性递增,进一步加剧了资源消耗。为攻克这些瓶颈,Ring-linear模型选用Lightning Attention作为线性注意力的核心实现,其核心机制可简洁表述为:$O = Q(K^T V)$。在此公式中,$O, Q, K, V \in \mathbb{R}^{n \times d}$分别代表输出、查询、键和值矩阵,其中$n$为序列长度,$d$为特征维度。通过精妙的递归预测,该线性公式将计算复杂度降至$O(nd^2)$,并且KV缓存的存储空间保持为常数,从而实现了效率的跨越式提升。
尽管纯线性注意力在多数任务上的表现已能与Softmax Attention相媲美,但在检索任务中仍存在一定差距。为此,Ring-linear模型创新性地采用混合架构,将模型层均匀划分为多个组,每个组内精心配置M个线性注意力层与一个Softmax Attention层。大量实验数据表明,这种混合线性架构在Scaling Law曲线上的表现持续优于纯Softmax Attention,尤其在较大的FLOP预算下,较大的M值(例如M=7)展现出更为卓越的性能。基于此,Ring-flash-linear-2.0最终配置为$M=7$,Ring-mini-linear-2.0则配置为$M=4$,以适配不同场景的需求。
关键架构设计亮点解析
Grouped RMSNorm技术:在张量并行(tensor parallelism)环境下,为避免在线性注意力核与输出投影之间进行频繁的All-Reduce操作,研发团队创新性地采用了分组归一化策略。该策略允许在每个Rank内局部执行RMSNorm,彻底消除了前向和反向传播过程中的不必要通信,显著提升了模型的运行效率。
Rotary Position Embedding(RoPE)优化:在线性注意力模块内部,对Q和K输入进行归一化处理后,研发团队巧妙地应用了RoPE操作,并且仅作用于一半维度。实验结果清晰显示,这一优化举措能够将训练语言模型(LM)的损失降低约0.004,为模型性能的提升贡献了重要力量。
Head-wise Decay策略:通过深入实验,团队发现混合线性模型的性能对线性注意力机制中隐藏状态的衰减系数极为敏感。在Lightning Attention的设置中,将线性衰减替换为幂律衰减(power-law decay)后,训练LM损失降低了约0.04,同时下游任务性能也得到了显著改善,充分证明了该策略的有效性。
解码成本深度剖析
在LLM应用与强化学习(RL)训练过程中,解码效率是制约模型Test-Time Scaling的关键瓶颈。Ring-linear架构通过精心设计,使得KV Cache/State memory的访问大小随序列长度的增长趋势得到有效优化,其表现全面超越了GQA和MLA等传统方法,为长序列解码效率的提升树立了新标杆。
计算优化:效率提升的核心引擎
为充分释放混合线性模型的效率潜力,Ring-linear系列在计算优化方面投入了巨大精力,实施了一系列全方位的优化策略。
GPU核优化:精雕细琢每一个计算环节
项目团队针对训练与推理过程中的GPU核进行了广泛而深入的融合与优化,目标直指减少计算延迟和激活内存消耗。其中,多项关键优化措施成效显著:
- Linear Gate优化:将线性注意力层中与门控机制相关的一系列操作,如attention output transpose、group RMS norm、gate sigmoid以及multiplication等,巧妙融合为一个单一核,大幅减少了核间通信开销。
- Permute/Unpermute改进:通过直接修改路由映射,将padding/unpadding操作无缝集成到permute/unpermute过程中,简化了数据处理流程,提升了整体效率。
- QK Norm + Partial RoPE融合:将QK归一化操作与之前的split、RoPE以及transpose操作有机融合,进一步优化了计算链路。
- MoE Router优化:在一个核内完成隐藏状态的类型转换与计算,前向输出采用FP32精度,反向输出则使用BF16,在保证精度的同时兼顾了效率。
- Linear Attention重构:重新设计了分区策略,采用分区Q/K和V,使得在预填充(prefill)阶段仅需使用一个Triton核,显著降低了预填充阶段的计算复杂度。
FP8训练优化:精度与速度的精妙平衡
FP8 GEMM相比BF16 GEMM在计算速度上具有天然优势,但BF16到FP8的量化开销却可能成为新的性能瓶颈。为此,研发团队提出了针对性的优化方案:
- Quantization Fusion技术:将量化操作与相邻核进行深度融合,例如,SiLU激活函数直接输出量化后的张量,彻底避免了BF16输出的读写过程,显著减少了I/O操作,提升了数据处理效率。
- State-aware Recompute策略:优化了细粒度重计算机制。在前向传播过程中,若处于非重计算模式,则仅计算并输出量化的$x$;若处于重计算模式,则仅计算并输出量化的$x^T$,有效减少了冗余计算,进一步提升了训练效率。
训练效率:吞吐量的跨越式提升
借助优化后的LingHe库以及精心调校的参数配置,Ring-mini-linear-2.0的训练吞吐量较基线提升了77%,Ring-flash-linear-2.0也提升了57%。这一显著成果得益于内存效率更高的融合核以及更为激进的重计算策略,使得模型能够支持更大的微批次大小,从而加速了训练进程。
推理效率:长文本处理的革命性突破
针对线性注意力在现有推理框架中支持不足的问题,项目团队自主研发了一套优化的融合线性注意力核,并成功将其集成到SGLang和vLLM等主流推理框架中,大幅提升了模型的推理性能。
- Prefill吞吐量:当上下文长度超过8K时,Ring-linear模型的预填充吞吐量开始超越Ring-2.0,并在128K以上上下文长度时达到2.5倍以上,更是基线模型的8倍以上,展现出在超长文本预填充方面的绝对优势。
- Decode吞吐量:当生成长度超过4K时,Ring-linear模型的解码吞吐量显著超越Ring-2.0,在64K上下文长度时达到2倍以上,是基线模型的10倍以上,为长文本生成效率的提升带来了质的飞跃。
- Speculative Decoding支持:团队成功开发了首个支持Tree Mask的线性注意力核,使得Ring混合线性模型能够顺利进行推测解码(speculative decoding),进一步拓展了模型的应用场景。
持续预训练:模型能力的深度打磨
Ring-mini-linear-2.0和Ring-flash-linear-2.0的基础模型分别源自Ling-mini-base-2.0-20T与Ling-flash-base-2.0-20T,并采用了科学的两阶段持续预训练策略,以确保模型能力的全面恢复与提升。
持续训练阶段
在该阶段,模型使用与Ling-base-2.0-20T完全相同的语料,在4K上下文长度下进行训练。这一步骤的核心目标是恢复基础模型原有的各项能力,为后续的扩展训练奠定坚实基础。
中期训练阶段
经过持续训练阶段后,模型进入中期训练阶段。在此阶段,上下文窗口从4K逐步扩展到32K,最终达到128K,同时有针对性地增加了高质量推理数据的比例。通过采用Warmup-Stable-Merge(WSM)学习率调度器与检查点合并技术,Ring-linear-base-2.0模型在各类基准测试中成功恢复了超过98%的原始模型性能,充分验证了该预训练策略的有效性。
后训练:模型性能的点睛之笔
在持续预训练完成后,为进一步增强模型的实际应用能力,Ring-linear系列模型经历了监督微调(Supervised Fine-Tuning, SFT)与强化学习(Reinforcement Learning, RL)两阶段的后训练过程。
监督微调(SFT)
SFT数据的选取着重于全面平衡模型的推理能力与泛化能力,广泛涵盖了数学、编码、科学、逻辑、通用知识、Agent任务、主观创作以及医疗等多个领域的高难度SFT数据。所有SFT数据均经过严格的去噪和去毒处理,确保数据质量。SFT训练过程采用128K上下文窗口,并特意选择较早的检查点用于下游RL阶段,以有效防止模型过拟合,保证其良好的泛化性能。
强化学习(RL)
RL训练在数学、编码、科学、逻辑和主观任务等多个关键领域展开。为在性能与效率之间取得最佳平衡,训练过程中使用了足够长的上下文窗口(例如64K)。
训练-推理差异难题:论文深入指出,RL训练过程中出现崩溃的根本原因在于训练与推理之间存在显著的不一致性。即使是RMSNorm和RoPE等标准组件,在不同的训练框架(如Megatron、FSDP)与推理框架(如vLLM、SGLang)中,也可能存在不可忽略的实现差异。这些细微差异经过层层累积,最终可能导致训练与推理结果的显著不同。此外,MoE架构中专家选择的差异以及长CoT模型中累积误差的增加,进一步加剧了这种不一致性,给RL训练带来了巨大挑战。
系统性训练-推理对齐方案:为从根本上解决这一难题,团队投入大量精力构建了系统性的对齐方案:
- KV Cache处理:线性注意力中的KV状态累积对数值精度提出了更高要求(例如FP32),否则极易导致显著的精度发散。
- LM Head优化:Softmax函数对数值精度高度敏感,因此lm_head层需采用FP32精度。团队通过自定义GEMM算子,在寄存器内完成BF16输入的转换与计算,在确保精度的同时有效减少了额外开销。
- RMSNorm对齐:计算过程全程使用FP32,确保epsilon值一致,残差计算同样保持FP32,并将RMSNorm与残差解耦,消除潜在的精度隐患。
- RoPE一致性检查:仔细排查并修正训练与推理之间可能存在的微小实现差异,确保位置编码的一致性。
- Attention机制统一:确保训练和推理过程使用相同的后端(例如FlashAttention),并对齐预填充与解码过程中的各项参数设置。
- MoE稳定性保障:路由器计算需保持高精度,将非稳定的torch.topk函数替换为稳定实现,确保Token置换和求和的确定性顺序。
通过实施上述系统性对齐措施,每次对齐的模块都显著提高了RL训练的效率与稳定性,为模型性能的最终达标提供了有力保障。
算法视角的优化:在实现系统性对齐之后,团队发现无需进行额外的算法修改。直接使用Rollout概率(即PPO中的$\nabla_\theta J (\theta) = E_{x \sim \pi_{rollout}} [ \nabla_\theta \min ( \frac{\pi_{training}(x, \theta)}{\pi_{rollout}(x, \theta_{old})} \hat{A}, \text{clip} ( \frac{\pi_{training}(x, \theta)}{\pi_{rollout}(x, \theta_{old})}, 1-\epsilon, 1+\epsilon ) \hat{A} ) ]$)进行重要性采样,不仅节省了重新计算训练概率的时间,还进一步提升了RL训练的效率和稳定性。实验结果清晰表明,对齐后的RL训练曲线在训练奖励和测试分数上均呈现出持续增长的良好态势。
全面评估:性能与效率的双重验证
为全面检验Ring-linear系列模型的综合性能,研发团队在数学推理、Agent与编码以及通用推理等17个权威基准测试中对其进行了严格评估。结果显示,Ring-mini-linear-2.0(16亿激活参数)在各类推理任务上的表现与同级别模型不相上下,充分证明了其高效的参数利用率。而Ring-flash-linear-2.0尽管设计紧凑,但在广泛的推理维度上,其性能可与Qwen3-32B-Thinking、Gemini-2.5-Flash和Qwen3-Next-80BA3B-Thinking等最先进模型相媲美,有力地证明了其全面而强大的推理能力。
结论与展望
Ring-linear系列模型通过创新的混合架构、高性能FP8融合核(LingHe)以及系统性的训练-推理对齐,成功实现了训练和推理效率的显著提升,并有效提高了模型的性能上限。然而,模型仍存在一定局限性,例如线性注意力模块为保持模型有效性而维持相同的Q、K、V注意力头数,这带来了一定的内存开销;同时,剩余的Softmax Attention模块也仍存在额外的计算瓶颈。未来,研发团队将继续深入探索更高效的模型架构,致力于在性能与效率之间实现更优的平衡,为大模型技术的持续发展贡献力量。随着技术的不断迭代,我们有理由相信,Ring-linear系列模型将在更多领域发挥重要作用,推动自然语言处理技术迈向新的高峰。
【免费下载链接】Ring-mini-2.0 项目地址: https://ai.gitcode.com/hf_mirrors/inclusionAI/Ring-mini-2.0
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考



