英伟达发布OpenReasoning-Nemotron推理套件:轻量化模型突破算力壁垒
今日,英伟达正式发布全新推理模型套件OpenReasoning-Nemotron,标志着大模型推理能力向轻量化部署迈出关键一步。该套件基于Qwen-2.5架构微调而成,包含1.5B、7B、14B和32B四个参数规模的模型版本,均衍生于6710亿参数的DeepSeek R1 0528基础模型。通过创新的"知识蒸馏"技术,英伟达成功将超大规模模型的核心推理能力压缩至消费级硬件可承载的量级,首次实现高端推理任务在普通游戏PC上的本地化运行,大幅降低了AI研究的算力门槛。
如上图所示,图片清晰展示了英伟达OpenReasoning-Nemotron模型家族的品牌标识。这一视觉标识不仅代表着英伟达在推理模型领域的技术布局,更为开发者提供了直观的产品认知入口,帮助快速识别和了解该系列模型的定位与价值。
与行业普遍追求复杂训练技术不同,英伟达此次采用"重数据、轻训练"的研发策略。团队基于NeMo Skills平台生成500万个高质量标注样本,覆盖数学推理、科学问题求解和程序开发三大核心领域,通过纯监督学习完成模型调优。实测数据显示,32B旗舰模型在AIME24数学竞赛中取得89.2分的优异成绩,HMMT二月赛得分达73.8分,即使最小的1.5B版本也分别获得55.5分和31.5分,展现出跨尺度的推理能力一致性。
如上图所示,柱状对比图直观呈现了OpenReasoning-Nemotron系列与同类模型在多维度推理基准测试中的性能差异。这一数据对比清晰展示了轻量化模型在保持性能优势的同时实现部署成本优化的技术突破,为研究人员选择合适算力规模的模型提供了科学依据。
值得关注的是,该系列模型创新性地引入"GenSelect模式",通过生成多个候选解答并智能筛选最优解的机制,使32B模型在多项专业评测中达到甚至超越OpenAI o3-high的性能水平。英伟达表示,所有模型检查点已在Hugging Face开放下载,开发者可直接基于此进行强化学习实验或领域适配优化。特别值得注意的是,该系列模型全程未采用强化学习训练,保持了模型权重的"纯净性",为后续研究提供了理想的技术起点。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考



