闻乐 发自 凹非寺
量子位 | 公众号 QbitAI
英伟达小模型持续获胜。
ARC-AGI 2最新成绩,4B小模型NVARC以27.64%的公开榜成绩力
且每任务成本仅20美分,大约是GPT-5 Pro单任务成本(超过7美元)的1/36。

据官方分析,此次NVARC夺冠的亮点在于零预训练深度学习方法
而ARC-AGI 2确实是一个消除了与公共训练数据重叠的更高难度测试,

成绩出炉后,官方访谈到了NVARC团队的Jean-

快来看看“性价比之王”是如何“练”成的?
不靠参数堆料
英伟达的策略是将复杂推理移至离线的合成数据管道,
简单来说就是大规模合成高质量数据,然后对现有模型进行优化,

由于Kaggle比赛对计算资源限制非常严格,团队意识到,
因此他们改变了思路,决定将最烧钱的计算工作转移到离线完成。
团队从H-ARC、

为了确保数据质量,他们将复杂的推理管线拆分成不同的阶段,每个阶段都可以独立验证。
通过这种方式,他们建立了一个含320万+

这里忍不住提一嘴,哈萨比斯刚强调了Scaling Law的重要性,那么合成数据的Scaling怎么不算呢(doge)?

言归正传,

训练时借助NeMo RL框架和Megatron后端进行监督微调。
不过,让模型取得优异成绩的关键一步在于测试时微调(TTFT)
针对ARC-AGI-2“每个任务都是全新规则”的特点,
而对ARChitects方法的改进在于解码阶段DFS算法做了
同时统一了8种数据增强操作评估候选解,

在竞赛后期,团队还应用了“少即是多”的TRM方法,
那么问题来了,有人会说这样训练出来的小模型不就是做题机器吗?
但更值得关注的或许不在于模型本身,而在于实现突破的方法。
在特定领域任务中,小模型经过针对性优化,性能并不逊色,
将正确的方法用在正确的地方,将会实现更大的价值。

借用这位网友所说,模型或许应该被设计得更加“敏捷”。
论文地址:https://drive.google.com/
参考链接:
[1]https://developer.nvidia.
[2]https://arcprize.org/blog/
[3]https://www.kaggle.com/
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
🔊 锁定12月10日周三,AI圈一年一度绝对不容错过的盛宴马上就要来了——MEET2026智能未来大会。👉 了解详情
📍 重磅GenAI对话+前沿Agent圆桌,深挖年度最热议题
📍 近三十位来自学术界、产业界与前沿创业一线的重量级嘉宾
📍 「人工智能年度榜单」与「年度AI趋势报告」正式发布
一键报名线下参会,一起来AI认知跨年 ❤️🔥

🌟 点亮星标 🌟
科技前沿进展每日见
44

被折叠的 条评论
为什么被折叠?



