蚂蚁百灵开源Ling-flash-2.0:100B参数MoE模型以6.1B激活实现40B级性能,重新定义大模型效率标准

蚂蚁百灵开源Ling-flash-2.0:100B参数MoE模型以6.1B激活实现40B级性能,重新定义大模型效率标准

【免费下载链接】Ling-flash-2.0 【免费下载链接】Ling-flash-2.0 项目地址: https://ai.gitcode.com/hf_mirrors/inclusionAI/Ling-flash-2.0

今日,蚂蚁集团百灵大模型团队宣布正式开源其最新研发的MoE(混合专家)架构大模型——Ling-flash-2.0。作为Ling 2.0架构体系下的第三款里程碑产品,该模型以1000亿总参数配合仅61亿激活参数(非嵌入层激活参数48亿)的极致轻量化配置,在多项国际权威评测中展现出媲美甚至超越400亿参数稠密模型(Dense Model)及更大规模MoE模型的综合性能。这并非一次普通的技术迭代,而是在"大模型即大参数"的行业惯性思维下,通过架构创新与训练策略优化,在推理速度、任务效能与部署成本间构建的全新平衡点。此次开源不仅标志着Ling系列模型开源进程的关键突破,更为当前大模型领域愈演愈烈的"参数竞赛"提供了兼顾效率、实用性与可持续性的技术新范式。

在大模型技术竞争白热化的当下,参数规模似乎已成为衡量模型能力的核心指标。然而,"参数数量与模型能力正相关"的固有认知正在遭遇严峻挑战:训练成本呈指数级增长,推理延迟成为产业落地的主要瓶颈,大量参数处于冗余状态,实际激活效率低下。MoE架构凭借其"稀疏激活"机制,被业界视为用有限计算资源撬动更大参数容量的理想方案,但如何构建真正高效的MoE系统仍是未解难题。Ling-flash-2.0给出的答案是:从架构设计、训练流程到推理优化的全栈式创新。

以小搏大:61亿激活参数实现400亿级性能突破。Ling团队前期关于MoE缩放定律(Scaling Law)的研究(https://arxiv.org/abs/2507.17702)揭示了MoE架构在规模扩展中的独特特性。基于该研究成果,团队通过架构极致优化与训练策略创新,在仅激活61亿参数的条件下,实现了对400亿参数稠密模型的性能超越,以最小计算开销获取最大任务效能。为达成这一目标,研发团队在多个技术维度同步实施"减法"与"加法"策略:采用1/32激活比例设计,每次推理仅激活61亿参数,计算量远低于同性能稠密模型;通过专家粒度精细化调优,减少冗余激活;创新共享专家机制,提升通用知识复用效率;采用sigmoid路由与无辅助损失(aux-loss free)策略,实现专家负载均衡,规避传统MoE模型的训练震荡问题;同时集成MTP层、QK-Norm归一化、half-RoPE位置编码等技术细节,在建模目标、注意力机制与位置编码等关键模块实现经验最优配置。

最终实现的技术突破表现为:61亿激活参数带来相当于400亿稠密模型的等效性能,形成超过7倍的性能杠杆效应。这意味着,在日常推理场景中,Ling-flash-2.0不仅能提供接近400亿稠密模型的任务表现,推理速度更提升3倍以上,在H20计算平台可实现每秒200+tokens的生成速度,且随着输出文本长度增加,加速优势愈发显著。这种1/32激活比例与7倍性能杠杆的突破性结合,彰显了Ling团队在MoE架构领域的深度技术积累。

该图为蚂蚁开源的MoE大模型Ling-flash-2.0的架构图展示了其100B总参数、6.1B激活参数的轻量级设计包含MoE架构、Grouped-Query Attention、RoPE位置编码等核心组件及训练目标与资源优化策略 如上图所示,该架构图清晰呈现了Ling-flash-2.0的核心设计理念,包括总参数与激活参数的配比关系、关键技术组件布局及资源优化路径。这一架构设计充分体现了模型在追求高性能与低资源消耗间的精妙平衡,为开发者理解MoE模型的高效运行机制提供了直观参考。

强大的复杂推理能力是Ling-flash-2.0的核心竞争力。为全面验证模型的综合效能,蚂蚁百灵大模型团队构建了覆盖多学科知识推理、高等数学问题求解、代码生成、逻辑推理及金融医疗专业领域的全方位评测体系,并与当前主流模型展开系统性对比。从评测结果来看,Ling-flash-2.0不仅显著优于同级别稠密模型(如Qwen3-32B、Seed-OSS-36B),更超越了更大激活参数规模的MoE模型(如Hunyuan-A13B、GPT-OSS-120B)。其优势在三类关键任务中表现尤为突出:在高难度数学推理领域,依托高推理密度语料与思维链训练的预训练策略,模型在AIME 2025竞赛题与Omni-MATH数据集上展现出稳定的推理链路构建能力与多步骤问题求解能力;代码生成方面,在LiveCodeBench、CodeForces等权威评测中,模型在功能正确性、代码风格规范性与复杂度控制方面均优于同规模模型,部分任务表现甚至超越GPT-OSS-120B;前端研发领域,通过与WeaveFox团队的联合优化,借助大规模强化学习与视觉增强奖励(VAR)机制,模型在UI布局设计、组件生成与响应式开发等任务中实现了功能完整性与视觉美学的双重优化。

图片为柱状对比图展示蚂蚁开源大模型Ling-flash-2.0与Qwen3-32B、Seed-OSS-36B等主流模型在GPQA-Diamond、MMLU-Pro、AIME 2025等多领域评测任务中的性能得分差异直观呈现其优异表现 该对比图通过多维度评测数据直观展示了Ling-flash-2.0与当前主流模型的性能差距,涵盖知识问答、专业能力与数学推理等关键领域。这些量化结果有力证明了轻量化激活策略下的模型性能优势,为产业界选择高效能大模型提供了重要决策参考。

Ling-flash-2.0的技术优势不仅体现在评测指标上,更在多样化实际应用场景中展现出强大落地能力。在代码生成与编辑领域,模型成功完成了"旋转六边形内10个小球碰撞模拟"的Python程序开发任务,包括重力与摩擦力模拟、碰撞检测算法实现等复杂逻辑,并能精准定位"is_point_in_hexagon"函数未定义的NameError错误,提供完整修正代码,最终实现球体间碰撞检测的优化需求。

前端研发场景中,Ling团队与WeaveFox团队深度合作,基于大规模强化学习全面升级模型的前端代码生成能力。典型案例包括:遵循"新粗野主义"设计风格的计算器开发,要求采用大胆配色、高对比度、3-4px粗黑边框与强烈阴影效果,通过原始字体与非对称布局营造"刻意未设计"的美学风格;多语言旅游攻略网站开发,需支持各国旅行指南展示、用户经验分享与照片上传功能;万相AIGC模型海外 Landing Page 设计,采用黑色基调配合渐变紫色流动效果以体现AI智能感,包含overview、feature、pricing、contact us完整导航结构;以及经典贪吃蛇游戏的全代码实现。

数学优化求解方面,模型成功解决高难度数独问题,通过将其建模为运筹优化问题并提供完整数学模型,最终编写可直接求解的Pyomo代码。针对如下数独问题:

|_ _ | _ 2|9 3 | | _ | _ | 1 5| |_ 4 6|_ _ | _ 7|

|_ 6 |8 _ 4| _ 9| |_ _ 8|1 _ 7|6 _ _| |4 _ |2 _ 9| 5 _|

|3 _ | _ _|2 9 _| |7 9 | _ | _ | | 2 5|3 _ | _ _|

模型不仅完成了约束条件建模,更实现了可直接运行的优化求解代码。在系统集成方面,Ling-flash-2.0支持通过简单环境变量配置接入Qwen Code等CLI服务,开发者仅需在.bashrc或.zshrc文件中设置OPENAI_API_KEY、OPENAI_BASE_URL与OPENAI_MODEL环境变量即可快速启用。

Ling-flash-2.0的卓越性能源于其坚实的预训练基础。百灵大模型团队构建了基于统一数据湖宽表设计的AI Data System,支持样本级数据血缘管理,已完成超过40万亿tokens的高质量语料处理,从中精选最优子集支撑Ling-flash-2.0的20万亿tokens预训练计划。为最大化模型的知识压缩效率与基础推理能力,团队创新设计三阶段预训练流程:第一阶段采用10万亿tokens高知识密度语料,夯实模型基础知识体系;第二阶段引入10万亿tokens高推理密度语料,重点提升复杂问题求解能力;中间训练阶段(Mid-training Stage)将上下文窗口扩展至32K tokens,同步引入思维链(Chain-of-Thought)类语料,为后续精调阶段奠定基础。训练过程中的关键超参数(如学习率、批大小)均由团队自研的Ling Scaling Laws提供最优配置,并创新性地将传统WSD学习率调度器升级为自研的WSM(Warmup-Stable and Merge)调度器,通过checkpoint merging技术模拟学习率衰减过程,显著提升下游任务表现。多语言能力方面,Ling 2.0将词表规模从128K扩展至156K,新增大量多语言token,训练数据涵盖30种语言的高质量语料,大幅提升模型的跨语言理解与生成能力。

高效推理能力仅是基础,百灵大模型团队致力于打造"能思考、能共情、能对话"的新一代智能模型,实现"智理相济,答因境生"的交互体验。为此设计了四阶段后训练流程:首先是解耦微调(DFT)阶段,通过完全独立的系统提示词设计,使模型同时掌握"即时回答"与"深度推理"双模式能力,微调数据覆盖数理科学、创意写作、情感对话、社科哲思等多元领域,并特别引入金融建模、工业调度、供应链优化等数学优化任务,赋予模型解决实际问题的能力;其次是ApexEval评测阶段,在强化学习前通过聚焦知识掌握度与推理深度、弱化格式与指令遵循要求的评测方法,筛选最具潜力的模型进入强化学习阶段;第三阶段实施演进式RL策略,使模型从简洁思维链起步,根据问题复杂度动态"解锁"深层推理能力,实现"遇简速答、见难思深"的智能响应机制。针对代码任务采用测试用例驱动的功能奖励机制,创新引入视觉增强奖励(VAR)对前端任务的UI渲染效果进行美学评估,实现功能与视觉体验的协同优化;开放域问答中构建组内竞技场奖励机制(Group Arena Reward),结合RubriX多维度评价标准,有效抑制奖励噪声,提升模型的人性化交互与情感共鸣能力。最后通过由奖励服务调度框架、策略引擎与执行环境构成的后训练奖励系统,支持异步奖励计算与GPU资源时分复用,实现40K并发执行能力,为高质量数据筛选与模型迭代提供坚实技术支撑。

Ling-flash-2.0的技术突破核心不在于"参数规模小",而在于重新定义了大模型的"效率-能力"关系。61亿激活参数的实践表明:模型智能不仅取决于规模,更源于架构设计、训练策略与推理优化的协同创新。在"参数决定能力"的行业惯性下,百灵大模型团队通过Ling-flash-2.0构建了可部署、可扩展、可演进的技术新范式,证明模型智能的本质是架构设计、数据质量与训练策略的深度融合。此次开源同步释放对话模型与Base模型,为研究者与开发者提供灵活的技术底座。Base模型已在多项评测中展现出强劲性能,具备优秀的知识压缩与推理能力,适合各类下游任务的定制化微调。

随着Ling-flash-2.0的开源,高效能大模型的时代已然开启。开发者可通过以下渠道获取模型:Gitcode仓库:https://gitcode.com/hf_mirrors/inclusionAI/Ling-flash-2.0。未来,蚂蚁百灵团队将持续推进大模型效率优化技术的开源共享,与产业界共同探索大模型可持续发展的技术路径,推动AI技术向更高效、更普惠的方向演进。

【免费下载链接】Ling-flash-2.0 【免费下载链接】Ling-flash-2.0 项目地址: https://ai.gitcode.com/hf_mirrors/inclusionAI/Ling-flash-2.0

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值