我在本地跑一个小型推理脚本,代码量不大、模型也不算重,但 Intel 风扇突然像暴躁的鸟一样狂叫。我移到旁边那台 ARM 机器上跑同样逻辑,整个过程像夜色里的风划过叶面,悄无声息。这不是一次性能比较,而是一个直觉时刻:原来 AI 的未来,真的不必永远绑定在高功耗的铁盒子里。
ARM 和 AI,就像两条原本互不打扰的技术河流,一个来自移动设备的低功耗哲学,一个来自高性能计算的渴望扩张。但 2025 年,这两条河流开始汇聚——而这一次,我们有理由相信,汇流点会改变整个行业。
AI 需要更轻、更贴近人类、更随时可用;ARM 正是适合承载它的身体。

这篇文章,我想带你穿过 ARM 的历史幕布和 AI 的能耗现实,从底层架构讲到工程实践,再走到行业趋势,用一种更诗意、更务实、更前瞻的方式回答一个问题:
为什么 ARM 会成为 AI 的第二心脏?
1. 一个真实的转折:AI 的瓶颈,从算力变成了“距离”
过去我们谈 AI 的瓶颈,总绕不开算力、显存、带宽这些词。可是真正在工程里踩过坑的开发者都知道,瓶颈从来不是单维度的。大模型推理迟迟降不下来,边缘计算迟迟跑不稳,本地私有部署迟迟发不动力,这些问题的根源,往往不是算力真的不够,而是算力离需求太远。
AI 越来越需要靠近真实世界:靠近摄像头、靠近用户、靠近交互界面、靠近端侧输入、靠近企业内部系统。可是传统 x86 服务器像一座沉重的城堡,适合在远端稳定运作,却不适合在用户手边敏捷响应。
而 ARM 刚好反着:
它是轻盈的、移动的、低功耗的、随处可嵌入的,像一只可以贴在现实边缘工作的“计算小兽”。
当 AI 想往世界里钻的时候,ARM 就变成了最自然的容器。
这是第一处大转折:
AI 的未来

最低0.47元/天 解锁文章
88

被折叠的 条评论
为什么被折叠?



