【AI大模型前沿】蚂蚁Ring-lite轻量级推理模型:2.75B激活参数实现SOTA性能

部署运行你感兴趣的模型镜像

蚂蚁技术团队推出的Ring-lite是基于MoE架构的轻量级推理模型,总参数量16.8B,激活参数仅2.75B。采用创新的C3PO强化学习训练方法,结合Long-CoT SFT与RL技术,在数学、编程和科学等多个领域推理Benchmark上达到SOTA性能。模型开源完整技术栈,适用于教育、科研、工业商业、智能助手和医疗等多场景,为资源受限环境中的高效推理提供理想解决方案。

目录

前言

在人工智能领域,推理模型的性能与效率一直是研究者和开发者关注的焦点。蚂蚁技术团队推出的Ring-lite,作为一款基于MoE架构的轻量级推理模型,凭借其创新的C3PO强化学习训练方法和高效的多领域推理能力,为轻量级推理模型的发展树立了新的标杆。本文将深入剖析Ring-lite的技术原理、功能特点、应用场景以及性能表现,帮助读者全面了解这一开源项目。

一、项目概述

Ring-lite是蚂蚁技术AntTech团队基于MoE架构推出的轻量级推理模型,以Ling-lite-1.5为基础,采用独创的C3PO强化学习训练方法,在多项推理Benchmark上达到SOTA效果,仅用2.75B激活参数。该模型通过稳定强化学习训练、优化Long-CoT SFT与RL的训练比重、解决多领域任务联合训练难题等技术创新,实现了高效推理,并开源了技术栈,包括模型权重、训练代码、数据集等,推动轻量级MoE推理模型的发展。

二、技术原理

(一)MoE架构

Ring-lite基于Mixture-of-Experts(MoE)架构,该架构通过多个专家网络的组合来处理输入数据。每个专家网络负责处理特定的子任务或数据特征,从而提高模型的推理能力和效率。这种架构的优势在于能够根据输入数据的不同特征,动态地选择最合适的专家网络进行处理,实现资源的高效利用和推理性能的提升。

(二)C3PO强化学习训练方法

C3PO(Constrained Contextual Computation Policy Optimization)是Ring-lite的创新强化学习训练方法。它通过固定每个训练步骤的总训练token数,消除由于生成回复长度波动带来的优化不稳定和吞吐波动问题。C3PO基于熵损失(entropy loss)的策略选择合适的起点模型,进一步稳定训练过程。这种方法有效解决了传统强化学习训练中的不稳定性问题,提高了训练过程的稳定性和效率。

(三)Long-CoT SFT与RL的结合

Ring-lite采用Long-CoT(长推理链)监督微调(SFT)和强化学习(RL)相结合的两阶段训练方法。Long-CoT SFT使模型能够学习到复杂的推理模式,而RL则让模型在特定任务上进一步优化性能。Ring-lite通过实验确定最佳的SFT和RL训练比重,在token效率和性能之间取得平衡,充分发挥了两种训练方法的优势。

(四)多领域数据联合训练

Ring-lite在训练过程中采用数学、编程和科学等多个领域的数据。通过分阶段训练的方法,在数学任务上进行训练,然后在代码和科学任务上进行联合训练,有效地解决了多领域数据联合训练中的领域冲突问题。这种训练方式不仅提高了模型在不同领域的推理能力,还增强了模型的泛化能力。

三、主要功能

(一)高效推理

Ring-lite能在多项复杂的推理任务中实现高效推理,如数学推理、编程竞赛和科学推理等。其高效的推理能力得益于MoE架构和C3PO强化学习训练方法的结合,使得模型在处理复杂问题时能够快速准确地给出推理结果。

(二)轻量级设计

Ring-lite的总参数量为16.8B,激活参数仅为2.75B,在保持高性能的同时,具有较低的计算资源需求。这种轻量级设计使得Ring-lite适合在资源受限的环境中使用,如移动设备、边缘计算设备等,为推理模型的广泛应用提供了可能。

(三)多领域推理

Ring-lite能处理多个领域的推理任务,包括数学、编程和科学等。它通过联合训练和分阶段训练的方法,实现在不同领域之间的协同增益,提高模型的泛化能力。这种多领域推理能力使得Ring-lite能够应用于多种场景,满足不同领域的推理需求。

(四)稳定训练

基于C3PO强化学习训练方法,Ring-lite解决了传统强化学习训练中的不稳定性问题,提高了训练过程的稳定性和效率。稳定的训练过程不仅保证了模型性能的持续提升,还减少了训练过程中的资源浪费和时间成本。

四、应用场景

(一)教育领域

Ring-lite可以辅助学生解决复杂的数学和科学问题,提供详细的解题步骤和推理过程,帮助学生更好地理解和掌握知识。其多领域推理能力使得它能够覆盖多个学科,为学生提供全面的学习支持。

(二)科研领域

在科研领域,Ring-lite能够辅助研究人员验证和探索复杂的数学和科学问题,提供详细的推理步骤和解决方案,支持理论研究和实验设计。其高效的推理能力和稳定的训练过程为科研人员提供了可靠的工具,加速科研进程。

(三)工业和商业领域

Ring-lite可以处理和分析复杂的数据,提供推理过程和解决方案,用于金融、医疗和市场营销等领域的预测和决策支持。其轻量级设计使得它能够快速部署在各种商业环境中,为企业提供高效的推理服务。

(四)智能助手

集成到智能助手中,Ring-lite能够提供更智能的推理和解答能力,处理复杂的查询和任务,提升用户体验。其多领域推理能力使得智能助手能够更好地理解用户的需求,为用户提供更加精准和个性化的服务。

(五)医疗领域

在医疗领域,Ring-lite可以辅助医生和研究人员分析和处理复杂的医学数据,提供详细的推理过程和解决方案,支持疾病诊断和治疗方案制定。其高效的推理能力和稳定的训练过程为医疗行业提供了有力的技术支持。

五、性能评估

Ring-lite在多个推理Benchmark上达到了SOTA效果,仅用2.75B激活参数。在数学推理方面,它在AIME2024和AIME2025两个具有挑战性的数学竞赛风格基准测试中分别取得了76.61%和69.11%的分数;在编程竞赛方面,它在LiveCodeBench和Codeforces两个具有挑战性的编程竞赛基准测试中分别取得了60.66%和86.45%的分数;在科学推理方面,它在GPQA-diamond研究生级别的科学问答基准测试中取得了61.05%的分数。这些成绩表明,Ring-lite在多个领域的推理任务中均表现出色,性能可与甚至超过一些参数规模更大的模型。

六、快速使用

(一)环境准备

在开始使用Ring-lite之前,需要确保你的计算环境满足以下要求:安装Python 3.8或更高版本,安装PyTorch 1.10或更高版本,以及安装Transformers库。这些环境要求为Ring-lite的运行提供了基础支持。

(二)模型下载

你可以从HuggingFace模型库下载Ring-lite模型。访问HuggingFace模型库,下载完成后,将模型文件保存到本地目录中。

(三)模型推理

使用Transformers库加载下载的Ring-lite模型,并进行推理使用。以下是一个简单的代码示例:

# AutoModelForCausalLM 用于加载因果语言模型
# AutoTokenizer 用于加载对应的分词器
from transformers import AutoModelForCausalLM, AutoTokenizer

# 指定模型名称,这里使用 inclusionAI/Ring-lite 模型
model_name = "inclusionAI/Ring-lite"

# 加载预训练模型
# torch_dtype="auto" 表示自动选择合适的 PyTorch 数据类型
# device_map="auto" 表示自动将模型分配到可用的设备(如 GPU 或 CPU)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto"
)

# 加载与模型对应的分词器
tokenizer = AutoTokenizer.from_pretrained(model_name)

# 定义用户输入的提示文本
prompt = "Give me a short introduction to large language models."

# 构建对话消息列表
# 包含系统消息和用户消息
# 系统消息用于设定模型的角色和行为
# 用户消息是用户的输入
messages = [
    {"role": "system", "content": "You are Ring, an assistant created by inclusionAI"},
    {"role": "user", "content": prompt}
]

# 使用分词器的 apply_chat_template 方法将对话消息转换为模型输入格式
# tokenize=False 表示不进行分词
# add_generation_prompt=True 表示添加生成提示,以便模型生成回复
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)

# 将文本转换为模型输入张量
# return_tensors="pt" 表示返回 PyTorch 张量
# 并将输入张量移动到模型所在的设备上
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)

# 使用模型生成回复
# max_new_tokens=8192 表示最多生成 8192 个新 token
generated_ids = model.generate(
    **model_inputs,
    max_new_tokens=8192
)

# 从生成的 token 中提取模型生成的部分
# 去除输入部分的 token,只保留模型生成的 token
generated_ids = [
    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]

# 将生成的 token 解码为文本
# skip_special_tokens=True 表示跳过特殊 token(如 <pad>、<eos> 等)
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

# 输出生成的回复
print(response)

七、结语

Ring-lite作为蚂蚁技术团队开源的轻量级推理模型,凭借其创新的技术原理、强大的功能特点、广泛的应用场景以及出色的性能表现,为推理模型领域带来了新的突破。其开源的技术栈也为研究者和开发者提供了宝贵的资源,推动了轻量级MoE推理模型的发展。我们期待Ring-lite在未来能够继续优化和升级,为人工智能领域带来更多的惊喜和价值。

八、项目地址

  • GitHub仓库:https://github.com/inclusionAI/Ring
  • HuggingFace模型库:https://huggingface.co/inclusionAI/Ring-lite
  • arXiv技术论文:https://arxiv.org/pdf/2506.14731

零基础如何高效学习大模型?

你是否懂 AI,是否具备利用大模型去开发应用能力,是否能够对大模型进行调优,将会是决定自己职业前景的重要参数。

为了帮助大家打破壁垒,快速了解大模型核心技术原理,学习相关大模型技术。从原理出发真正入局大模型。在这里我和鲁为民博士系统梳理大模型学习脉络,这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码免费领取🆓**⬇️⬇️⬇️

在这里插入图片描述

【大模型全套视频教程】

教程从当下的市场现状和趋势出发,分析各个岗位人才需求,带你充分了解自身情况,get 到适合自己的 AI 大模型入门学习路线。

从基础的 prompt 工程入手,逐步深入到 Agents,其中更是详细介绍了 LLM 最重要的编程框架 LangChain。最后把微调与预训练进行了对比介绍与分析。

同时课程详细介绍了AI大模型技能图谱知识树,规划属于你自己的大模型学习路线,并且专门提前收集了大家对大模型常见的疑问,集中解答所有疑惑!

在这里插入图片描述

深耕 AI 领域技术专家带你快速入门大模型

跟着行业技术专家免费学习的机会非常难得,相信跟着学习下来能够对大模型有更加深刻的认知和理解,也能真正利用起大模型,从而“弯道超车”,实现职业跃迁!

图片

【精选AI大模型权威PDF书籍/教程】

精心筛选的经典与前沿并重的电子书和教程合集,包含《深度学习》等一百多本书籍和讲义精要等材料。绝对是深入理解理论、夯实基础的不二之选。

在这里插入图片描述

【AI 大模型面试题 】

除了 AI 入门课程,我还给大家准备了非常全面的**「AI 大模型面试题」,**包括字节、腾讯等一线大厂的 AI 岗面经分享、LLMs、Transformer、RAG 面试真题等,帮你在面试大模型工作中更快一步。

【大厂 AI 岗位面经分享(92份)】

图片

【AI 大模型面试真题(102 道)】

图片

【LLMs 面试真题(97 道)】

图片

【640套 AI 大模型行业研究报告】

在这里插入图片描述

【AI大模型完整版学习路线图(2025版)】

明确学习方向,2025年 AI 要学什么,这一张图就够了!

img

👇👇点击下方卡片链接免费领取全部内容👇👇

在这里插入图片描述

抓住AI浪潮,重塑职业未来!

科技行业正处于深刻变革之中。英特尔等巨头近期进行结构性调整,缩减部分传统岗位,同时AI相关技术岗位(尤其是大模型方向)需求激增,已成为不争的事实。具备相关技能的人才在就业市场上正变得炙手可热。

行业趋势洞察:

  • 转型加速: 传统IT岗位面临转型压力,拥抱AI技术成为关键。
  • 人才争夺战: 拥有3-5年经验、扎实AI技术功底真实项目经验的工程师,在头部大厂及明星AI企业中的薪资竞争力显著提升(部分核心岗位可达较高水平)。
  • 门槛提高: “具备AI项目实操经验”正迅速成为简历筛选的重要标准,预计未来1-2年将成为普遍门槛。

与其观望,不如行动!

面对变革,主动学习、提升技能才是应对之道。掌握AI大模型核心原理、主流应用技术与项目实战经验,是抓住时代机遇、实现职业跃迁的关键一步。

在这里插入图片描述

01 为什么分享这份学习资料?

当前,我国在AI大模型领域的高质量人才供给仍显不足,行业亟需更多有志于此的专业力量加入。

因此,我们决定将这份精心整理的AI大模型学习资料,无偿分享给每一位真心渴望进入这个领域、愿意投入学习的伙伴!

我们希望能为你的学习之路提供一份助力。如果在学习过程中遇到技术问题,也欢迎交流探讨,我们乐于分享所知。

*02 这份资料的价值在哪里?*

专业背书,系统构建:

  • 本资料由我与鲁为民博士共同整理。鲁博士拥有清华大学学士美国加州理工学院博士学位,在人工智能领域造诣深厚:

    • 在IEEE Transactions等顶级学术期刊及国际会议发表论文超过50篇
    • 拥有多项中美发明专利。
    • 荣获吴文俊人工智能科学技术奖(中国人工智能领域重要奖项)。
  • 目前,我有幸与鲁博士共同进行人工智能相关研究。

在这里插入图片描述

内容实用,循序渐进:

  • 资料体系化覆盖了从基础概念入门核心技术进阶的知识点。

  • 包含丰富的视频教程实战项目案例,强调动手实践能力。

  • 无论你是初探AI领域的新手,还是已有一定技术基础希望深入大模型的学习者,这份资料都能为你提供系统性的学习路径和宝贵的实践参考助力你提升技术能力,向大模型相关岗位转型发展

    在这里插入图片描述在这里插入图片描述在这里插入图片描述

抓住机遇,开启你的AI学习之旅!

在这里插入图片描述

您可能感兴趣的与本文相关的镜像

Qwen3-14B

Qwen3-14B

文本生成
Qwen3

Qwen3 是 Qwen 系列中的最新一代大型语言模型,提供了一整套密集型和专家混合(MoE)模型。基于广泛的训练,Qwen3 在推理、指令执行、代理能力和多语言支持方面取得了突破性进展

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员一粟

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值