导语
【免费下载链接】Ring-1T 项目地址: https://ai.gitcode.com/hf_mirrors/inclusionAI/Ring-1T
蚂蚁集团正式发布全球首个开源万亿参数思考模型Ring-1T,其在2025年国际数学奥林匹克竞赛(IMO)中达到银牌水平,推理能力直逼闭源巨头,标志着开源AI正式迈入万亿参数时代。
行业现状:大模型推理能力成竞争焦点
2025年,大模型领域的竞争已从参数规模转向推理能力。随着GPT-5、Gemini 2.5 Pro等闭源模型在数学推理、代码生成等领域不断突破,开源社区亟需能与之抗衡的大模型。在此背景下,中国科技企业纷纷加大开源力度,形成了"中国开源主导,国外闭源聚焦商业"的鲜明格局。据ModelScope魔搭社区10月数据显示,仅9月全球就有十余家主流玩家扎堆开源大模型,数量较8月翻倍,其中蚂蚁集团旗下百灵大模型密集上线7款新品,平均每四天就有一个新模型问世。
开源模型与闭源模型的对比
当前行业呈现出明显的"双轨制"发展态势:国外科技巨头如OpenAI、Google等持续强化闭源模型的商业落地,而中国企业则通过开源策略快速推进技术迭代和生态建设。这种差异化路线使得中国在开源大模型领域形成了独特优势,Ring-1T的发布进一步巩固了这一领先地位。
核心亮点:Ring-1T的四大突破
1. 数学推理能力对标IMO银牌水平
Ring-1T在2025年国际数学奥林匹克竞赛(IMO)中表现惊艳,首次尝试即解出第1、3、4、5题,达到IMO银牌水平,成为首个在国际奥数赛题上取得获奖级成绩的开源系统。在第三次尝试中,对几何证明题第2题生成了近乎完美的证明,仅第6题未能正确解答,但与Gemini 2.5 Pro取得了相同答案。
2. 多维度性能测试领先开源阵营
在多项权威评测中,Ring-1T表现出全面的竞争力:
- 数学推理:AIME 25测试斩获92.6分,超越Gemini 2.5 Pro,仅比GPT-5(无工具)低2分
- 代码能力:CodeForces测试以94.69分反超GPT-5,LiveCodeBench榜单登顶
- 逻辑推理:ARC-AGI-v1任务刷新开源模型纪录
- 综合能力:Arena-Hard-v2基准测试成功率达81.59%,直逼GPT-5-Thinking(High)的82.91%
3. 创新技术架构实现高效推理
Ring-1T采用Ling 2.0 MoE混合专家架构,通过16个专家层的动态激活机制,实现了"性能与效率"的双重突破:
如上图所示,Ring-1T及其预览版(Ring-1T-preview)在AIME 25、CodeForces等多个AI基准测试任务中的性能对比。从图中可以看出,Ring-1T在数学推理和代码生成任务上均显著优于预览版,部分指标已接近GPT-5水平,展示了其在开源模型中的领先地位。
双模式推理机制让模型能根据任务复杂度动态调整资源消耗:处理简单任务时仅激活1-2个专家层,响应时间≤100毫秒;应对复杂任务时全量调用专家层,准确率提升30%。同时,借助1/32稀疏性设计与FP8混合精度训练,Ring-1T将训练成本降低60%以上,推理延迟较同类模型减少40%。
4. 完整开源生态助力开发者落地
蚂蚁不仅开源了模型本身,还提供了从部署到微调的全流程支持:
- 模型下载:支持Hugging Face和ModelScope双平台
- 本地部署:支持单GPU部署,工程师已在M3 Ultra芯片上成功运行
- 工具链支持:兼容百度飞桨、字节DeepResearch等框架
- 二次开发:公开数据生成方法、训练代码、权重参数及推理链逻辑
技术突破:解决MoE架构训练稳定性难题
Ring-1T的成功很大程度上得益于两项关键技术创新:Icepop强化学习稳定方法和ASystem高效强化学习系统。
Icepop:确保MoE模型稳定训练
在MoE模型的强化学习训练中,训练与推理引擎之间的算子实现差异比密集模型更为明显。这种差异随着序列长度和训练步骤的累积而愈发显著,尤其在长序列生成和长时间训练周期中。Ring-1T采用的Icepop算法通过掩码双向截断技术校正分布,有效减少了训练与推理阶段的差距,从而"冷却"快速升级的训练-推理差异。
ASystem:自主研发的万亿级训练框架
【免费下载链接】Ring-1T 项目地址: https://ai.gitcode.com/hf_mirrors/inclusionAI/Ring-1T
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考




