NeurIPS 2024最佳论文揭晓!北大字节VAR获最佳论文,清华厦大研究获提名

一水 发自 凹非寺
量子位 | 公众号 QbitAI

就在刚刚,NeurIPS 2024最佳论文出炉!

4篇获奖论文中,有3篇为华人一作,分别来自北大、新国立、厦大清华等。

16ade0263fad9d2ec8ab5ef97cfdd4d1.gif

据了解,NeurIPS 2024将于12月10日(星期二)至12月15日(星期日)在温哥华举办。

和去年相比,今年能够获奖的难度再次升级——

本届共收到15671篇有效论文投稿,比去年又增长了27%,但最后接收率仅有25.8%(去年为26.1%),大概4043篇左右。

接下来,快来康康获奖论文有哪些吧~

两篇最佳论文(Best Paper)

1、《Visual Autoregressive Modeling: Scalable Image Generation via Next-Scale Prediction》
(视觉自回归建模:通过Next-Scale预测生成可扩展图像)

688ff3b86e18d47a660750e22ce92367.png

本文由北京大学、字节跳动研究者共同完成。

论文核心提出了一种新的图像生成框架Visual Autoregressive modeling (VAR),首次使基于GPT风格的自回归模型在图像生成任务中超越了扩散模型,并验证了VAR模型的可扩展性和零样本泛化能力。

具体而言,论文引入了一种多尺度的自回归策略。与传统的按像素或token顺序生成图像的方法不同,VAR模型通过从低到高分辨的多尺度token图进行自回归生成,每一尺度的token图都依赖于前一尺度的结果。

这种方法的一个关键优势是,它能够显著减少生成高分辨率图像时所需的自回归步骤,从而降低了计算复杂度,提高了生成速度。

最终,VAR模型在ImageNet数据集上的验证表明,它能显著超越现有的自回归模型和一些扩散模型,并且还表现出了视觉生成领域的Scaling Laws

a19ea1f8493ac574074aeac8a9cadb1e.png

2、《Stochastic Taylor Derivative Estimator: Efficient amortization for arbitrary differential operators》
(随机泰勒导数估计器:任意微分算子的有效摊销)

9bdb6d3102a7f87cd9348761a5361b65.png

本文由新加坡国立大学、 Sea AI Lab研究者共同完成,论文一作为Zekun Shi

论文核心介绍了一种名为Stochastic Taylor Derivative Estimator (STDE) 的高效算法,用于优化包含高维和高阶微分算子的神经网络损失函数,特别是在物理信息神经网络(PINNs)中。

具体而言,研究展示了如何通过正确构造单变量高阶AD输入切线(input tangent),有效地对多元函数的任意阶导数张量进行任意收缩,这可用于有效地随机化任何微分算子。

当应用于PINNs时,与使用一阶AD进行随机化相比,本文方法提供了1000倍以上的速度提升和30倍以上的内存减少,而且现在可以在单个NVIDIA A100 GPU上,8分钟内解决100万维的偏微分方程(PDEs)。

总之,这项工作开启了在大规模问题中使用高阶微分算子的可能性。

510c260b1f1704d3b2909d8cef85e1fc.png

两篇Best Paper Runner-up

(Best Paper Runner-up通常授予在某个领域表现杰出但未能获得最佳论文的研究工作,大众通常认为其水平代表亚军)

1、《Not All Tokens Are What You Need for Pretraining》
(并非所有token都是预训练所需的)

40b9182ad6a29282c2d8ec7d02cd9c0f.png

本文由厦门大学、清华大学、微软研究者共同完成,论文共同一作为Zhenghao Lin和Zhibin Gou(苟志斌)

论文核心提出了一种新的名为RHO-1的语言模型预训练方法,它挑战了传统的预训练方法,即对所有训练tokens应用下一个token预测损失。其主要观点是,并非所有语料库中的tokens对于语言模型训练都同等重要。

通过分析不同tokens的训练动态,论文发现不同tokens的损失模式存在差异,并且有些tokens的损失减少是显著的,而有些则不然。

基于这些发现,论文引入了一种称为选择性语言建模(Selective Language Modeling, SLM)的新方法。SLM通过使用一个参考模型对tokens进行评分,然后只对评分较高的tokens进行训练,从而选择性地训练有用的tokens。

这种方法在15B OpenWebMath语料库上的持续预训练中,使得RHO-1在9个数学任务上的少数样本准确率(few-shot accuracy)实现了高达30%的绝对提升。在MATH数据集上,经过微调后,RHO-1的1B和7B模型分别达到了40.6%和51.8%的准确率,仅使用了DeepSeekMath所需预训练tokens的3%。

此外,在对80B通用token进行持续预训练时,RHO-1在15个不同任务上实现了6.8%的平均提升,数据效率和语言模型预训练的性能都得到了提升。

不仅如此,论文还展示了SLM在数学和通用领域的有效性,并通过实验和分析强调了在大语言模型预训练过程中考虑token级别的重要性。

386e056415026ecc862f4e5f3cec7771.png

2、《Guiding a Diffusion Model with a Bad Version of Itself》
(使用扩散模型的一个糟糕版本引导其自身)

15f93c09d918b9cbb0bd0510840ace0e.png

本文由英伟达和阿尔托大学共同完成,论文一作为Tero Karras

论文核心提出了一种名为自引导(autoguidance)的方法,通过使用主模型自身的一个较小、较少训练的版本作为引导模型,来提高图像生成质量。

论文指出,常见的无分类器引导方法是使用无条件模型来引导条件模型,这样既能实现更好的提示词对齐,也能得到更高质量的图像,但代价是多变程度下降。而自引导方法通过引导模型的不完美性,能够在不减少多样性的情况下提高图像质量。

实验表明,这能显著提升ImageNet生成效果。论文使用公开可用的网络,为64×64分辨率下的生成创造了1.01的FID记录,为512×512创造了1.25的FID记录。此外,该方法也适用于无条件扩散模型,可极大提高其质量。

283e91e416ef54f5e50c22a8f5386226.png
10358effa845e995bfeb9272bc93aa99.png

最后,感兴趣的家人们可以进一步查阅原论文~

最佳论文链接(按文章顺序):
[1]https://arxiv.org/pdf/2404.02905
[2]https://arxiv.org/abs/2412.00088
[3]https://openreview.net/pdf?id=0NMzBwqaAJ
[4]https://arxiv.org/pdf/2406.02507

12月11日

「MEET2025智能未来大会」报名啦

💫 李开复博士、周志华教授、智源研究院王仲远院长都来量子位MEET2025智能未来大会探讨行业破局之道了!

💥 最新嘉宾阵容在此点击报名参会欢迎来到MEET智能未来大会,期待与您一起预见智能科技新未来!

c5d05a42c8cf2d8f92841c03187f5728.png

7b575a714045823ae10963d411864026.png

4b24b4ab0a188488a15b769a0e978541.png

c528558bd880cc70a313422c91db4cdc.png

6c84513f471716f3ed79e4458ffd10c4.png

1fdfff71572c7a258b5bfec941c1a4e7.png

abbcc967d46bbb2baa152a209c26b2ee.png

16822cfe2963680b23be5a18408275e5.png

f57e21e8ba2bc3a5d96e3e0a69df69e1.png

e1bb602618b7505023a71bb98d4efa15.png

05e48b3f0b976f4110384bd6f218a867.png

0c31870eed2371685d4cc0615ca67e0e.png

2d256c280e95ff2dff55909930aa7670.png

165697706dca4fccf977751538c8dfaf.png

c1294d6f5c5b089780183cc485e9a2e5.png

63b60dfb1368789eb021a66f92384cc0.png

a7b4e77fb51f7a201140625d0a7672a2.png

outside_default.png

左右滑动查看最新嘉宾阵容

outside_default.png

点这里👇关注我,记得标星哦~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值