AI科学家Tim Dettmers在自己的博客发表了一篇文章《Why AGI Will Not Happen》。


物理世界不存在魔法,AGI和超级智能的宏大叙事正在撞上一堵名为物理法则的墙。
这是一篇写给那些愿意通过物理现实而非科幻小说来审视人工智能未来的人的文章。
如果你身处2025年12月,可能对AGI(通用人工智能)和超级智能(Superintelligence)抱有某种执念,要么坚信奇点临近,要么心存疑虑。
当前的讨论,尤其是源自旧金山湾区的那些声音,往往陷在一个致命的误区里:它们把计算看作一种抽象的哲学概念,而完全忽略了计算的物理实体性。
这种思维懒惰构建了一个巨大的回音室,理性的声音被淹没,盲目的乐观正在误导我们对未来的判断。
我们要谈硬件、缩放定律(Scaling Laws)、AI泡沫,但必须先回到一切的基础:物理现实。
计算必须严格遵循物理定律
湾区科技圈和牛津哲学派系混合出一种奇怪的文化,他们谈论AGI和超级智能时,就像在做抽象的思想实验。
这种源自有效利他主义(Effective Altruism)和理性主义社区的思维方式,最大的盲点在于忘记了计算是物理的。
有效的计算依赖两个核心动作:将全局信息搬运到局部,以及汇聚多个局部信息以生成新信息。
晶体管越做越小,确实加速了局部计算的复杂性,但信息的搬运成本并没有随之下降。
信息移动的能耗和延迟,随着距离的增加呈二次方级增长。即便晶体管再小,内存访问的物理限制依然存在。
看看缓存层级(Cache Hierarchies)就能明白这个道理。
L1、L2和L3缓存,在物理材质上是一样的,但计算属性天差地别。
L2和L3比L1大得多,但也慢得多。这不是技术不到位,而是物理距离的问题。
L3离计算核心更远,电子在芯片上跑路需要时间。
这里有两个铁律:第一,缓存越大,速度越慢;第二,随着晶体管缩小,计算变得极其便宜,但相对而言,内存变得极其昂贵。
现在的芯片设计,绝大部分面积都给了内存,计算单元反而成了配角。
英伟达的市场部喜欢吹嘘由于芯片算力达到了多少Exaflops,但他们不会告诉你,如果你无法用足够快的内存去喂饱这些算力,这些FLOPS就是废的。
AI架构,比如Transformer,本质上不是数学公式,而是物理形态的优化方案。
你需要做两件事:用多层感知机(MLP)处理局部关联,用注意力机制(Attention)池化远端信息。
Transformer之所以成功,是因为它在物理效率上几乎做到了极致,它用最简单的方式结合了局部计算和全局信息池化。
虽然研究还在继续,但边际效应已经非常明显——Transformer架构已经接近物理最优解,很难再有质的飞跃。
生物界也遵循同样的物理铁律。
动物的智力上限被生态位的热量摄入锁死。灵长类动物摄入多少卡路里,就能算出它有多少神经元,误差不超过1%。
人类发明了烹饪,这是一种体外预消化技术,极大地提升了热量摄入效率,从而支撑了更大的大脑。
但这依然有物理极限。人类女性怀孕时需要供养两个大脑,这在能量代谢上极其昂贵,如果大脑再大一点,母体就无法提供足够的代谢能量。
我们现有的智力水平,是能量物理限制划定的边界。
数字计算正在逼近同样的边界。
线性进步必须消耗指数级资源
跨学科的研究揭示了一个残酷的现实:想要获得线性的进步,必须投入指数级的资源。无论你想提高系统的精度还是效率,每前进一步,代价都是倍增的。
这背后有两个现实在起作用:物理现实和理念空间(Idea Space)。
在物理现实中,资源在时间和空间上的累积存在拥堵效应。你想在局部产生一个线性的结果,理论上需要线性的资源,但因为物质占据空间,资源的调配和汇聚会随着规模扩大而变慢,导致效率递减。
在理念空间,情况更为隐蔽。
如果两个点子完全独立,它们的效果可能叠加出十倍的威力。但问题是,人类的想法往往是高度相关的。
新想法通常建立在旧想法之上,这种依赖性导致了严重的收益递减。比如在AI领域,状态空间模型(State-based models)和Transformer看起来大相径庭,但它们本质上都在解决同一个注意力问题。
在一个已经被充分探索的子领域里,大多数想法都已经被想过了,剩下的要么是微小的修补,要么是那种看起来狂野但毫无实用价值的伪创新。
理论物理学是最好的例子。
一位顶尖理论物理学家曾坦言,现在所有的理论工作,要么是现有理论的增量修补,要么是编造出来的问题。
实验物理学更是如此,大型强子对撞机(LHC)为了验证标准模型,投入了数十亿美元和更高的能量,结果只是排除了更多的错误理论,得到一堆不确定的结果。
暗物质和暗能量依然是谜。我们可能不得不承认,由于资源的限制,宇宙的某些物理真相是不可知的。
回到AI,如果我们想要模型性能线性增长,就需要投入指数级的算力和数据。这种指数级的成本增长,终将让进步停滞。
硬件升级的红利已经彻底吃尽
这是一个在非专业人士中流传最广的误解:硬件会一直进步。人们习惯了摩尔定律的叙事,认为GPU会一代比一代强,AI性能也会随之水涨船高。
事实是,GPU的 meaningful improvement(有意义的改进)已经结束了。
回顾AI的发展史,AlexNet的诞生归功于CUDA在GPU上实现了卷积运算。
此后的进步主要靠两点:更好的GPU和更多的GPU。但在2018年左右,GPU的性价比/性能曲线就已经见顶了。从那以后,硬件厂商所做的,主要是挖掘一次性的特性。
看看我们经历了什么:先是16位精度,然后是张量核心(Tensor Cores),接着是高带宽内存(HBM),再到TMA,然后是8位精度,最后是4位精度。这条路已经走到头了。
我在关于k-bit推理缩放定律的论文中已经证明,对于特定的计算排列,数据类型的压缩是有物理极限的。现在硬件厂商已经采纳了这些极限设计。
未来的改进只能是妥协(Trade-offs):要么为了更低的内存占用牺牲计算效率,要么为了更高的吞吐量牺牲内存空间。
即便你能创新,那也逃不脱线性进步需要指数级资源的魔咒。
既然单卡GPU不再有质的飞跃,人们寄希望于机架(Rack)级别的优化。
高效地搬运键值缓存(Key-Value Caches)是当前的核心难题。
OpenAI吹嘘的基础设施,其实在架构上并没有什么秘密。
设计方案只有一种最优解,虽然工程实施极其复杂,需要大量的时间和人力,但本质上并不新颖。
OpenAI或其他前沿实验室在推理和基础设施栈上并没有根本性的护城河。机架级优化和数据中心级优化带来的优势,大概在2026年或2027年也会耗尽。
之前我们投入线性的成本能获得线性的回报,因为GPU的进步抵消了缩放定律的指数级成本。
现在这个抵消机制消失了。
我们正面临指数级成本换取线性回报的局面。
缩放定律在2025年的表现已经不尽如人意,如果2026年和2027年没有奇迹,物理墙就会把我们挡在门外。
对于前沿实验室来说,这非常危险。
如果单纯的规模堆叠不能带来显著超越研究/软件优化的提升,那么庞大的硬件资产就会从资产变成负债。
像MoonshotAI和Z.ai这样的小玩家证明,不需要顶级资源也能达到前沿性能。
如果小模型变得足够强,或者软件优化(如vLLM和SGLang之外的更高效栈)让3000亿参数模型的部署成本大幅下降,前沿实验室的基础设施优势可能会在一夜之间蒸发。
应用普及胜过追求超级智能
在AI的发展路径上,中美两国走了完全不同的路。
美国的逻辑是赢家通吃。
他们认为终极目标是建立超级智能,谁先造出来谁就赢了。
即便没达到AGI,只要你的模型最强,所有人都会用你的。这种思维专注于打造一个全知全能的上帝模型。
中国的哲学则完全不同。
中国不执着于模型本身的绝对能力,而看重应用和普及。
模型比别人强一点点并不重要,重要的是它能不能低成本地融入生产生活,能不能产生实际的生产力。
如果现有的方案已经足够好(Good Enough),能带来效率提升,那就直接用,而不是为了那1%的性能提升去烧钱。
美国的哲学是短视且危险的,尤其是当模型能力增长放缓时。
中国的哲学则更加务实和长远。
AI的真正价值在于它像电脑或互联网一样,成为一种通用基础设施。
如果AI只用于写代码或辅助工程,它的经济影响是有限的。
软件生产本身也有边际收益递减的问题。
AI必须渗透到经济的每一个毛细血管里,通过大规模的整合来挖掘非线性的收益。
中国正在通过补贴应用端来鼓励这种渗透。在中国,看到80岁的老奶奶用AI辅助日常生活并不稀奇。
这就是经济扩散(Economic Diffusion)的力量。
相比之下,美国对AGI和超级智能的赌注,是建立在对物理现实的无视之上的。
真正的AGI必须包含物理任务,这是经济活动中最大的板块。
也就是说,AGI必须是能干活的机器人。
让机器人从洗碗机里把碗拿出来,这很方便,但你不会在工厂里看到这种通用机器人,因为专用机器人效率更高、更精准。
中国已经有了全自动化的黑灯工厂。大多数工业机器人问题在受控环境下已经解决了。而剩下的未解决问题,比如缝制T恤袖子,在经济上根本不划算。
至于家庭机器人,如果叠衣服需要机器人花几分钟只能做到平庸的水平,我宁愿自己花两分钟叠好。
机器人学习遵循与大语言模型类似的缩放定律,但物理世界的数据收集太昂贵了,细节也太复杂。机器人技术的影响力将是有限的。
至于超级智能(Superintelligence),这纯粹是一个基于错误前提的幻想。
这个概念假设一旦智力达到人类水平,它就能自我递归改进,引发失控的智能爆炸。
这是牛津哲学家带给湾区的又一个脱离物理现实的抽象概念。
改进任何系统都需要资源。
即便超级智能比人类更善于利用资源,它依然受制于线性进步消耗指数级资源的铁律。
超级智能无法加速HBM内存的物理开发流程,无法突破芯片制造的物理良率,无法改变Transformer接近物理极限的事实。
推理堆栈的优化已经是一个解决得差不多的工程问题,超级智能在这里也玩不出什么花样。
那些指望超级智能来拯救算力瓶颈的人,和指望永动机的人没有区别。
2025年的结论非常清晰:AGI不会发生,因为计算受制于物理;超级智能是幻想,因为递归进化受制于资源。
未来的赢家不是那个造出上帝的人,而是那个能把AI便宜、好用地塞进每一个角落的人。
参考资料:
https://timdettmers.com/2025/12/10/why-agi-will-not-happen/

被折叠的 条评论
为什么被折叠?



