AI服务器:新需求催生新变革
2025年,人工智能正以前所未有的速度重塑全球经济格局,从大模型训练到行业应用落地,AI服务器作为算力核心基础设施,成为科技竞争的战略高地。AI 服务器的崛起,是人工智能时代发展的必然结果。与普通服务器相比,AI 服务器在架构、工作方式和功率等方面都有显著差异。它们采用 CPU+GPU/NPU 等加速卡的架构,以并行处理的方式高效完成复杂任务,功率更是大幅提升。
1、GPU/ASIC功耗爆炸式增长:
单颗GPU的功耗已经从几年前的300W-400W,飙升到如今的1400W(B300)。下一代R200 GPU预计将达到1800W。这相当于一个小型家用吹风机的功率集中在比手机还小的芯片上。功耗增加的同时,芯片制程还在微缩,导致单位面积上的功率密度(W/mm2)急剧上升,产生巨大的热量,对供电的响应速度和效率要求极高。
2、供电架构模式转变:
AI 服务器目前主流的供电架构为48V12V,未来将会迈向48V直接转6.75V或更低电压模式,减少了中间转换环节,提升了整体效率,但是对电路上的元器件性能要求则会更高。

供电模式转变:横向供电→垂直供电→集成供电
随着生成式人工智能训练处理器的连续电流需求增加到1000A,PoL 转换器被放在xPU的横向(旁边)位置。由于铜的电阻率和 PCB 上的走线长度,横向放置的 PoL 供电网络(PDN)的集总阻抗相当高,可能达到 150μΩ或更高,这意味着 PCB走线就会消耗掉 150W的功率。垂直供电VPD结构的出现,将 PoL 转换器直接放置在xPU的下方。在垂直供电网络中,其总阻抗可能降至15μΩ或更低,这意味着在内核电压域1000A培的连续电流下,只会消耗 15W的功率。为进一步减小PDN的功率消耗,未来会进一步将供电模块集成到xPU内部。
LPD(Lateral Power Delivery)、VPD(Vertical Power Delivery)、IVR(Integrated Voltage Regulator)技术的
AI服务器供电黑科技揭秘

最低0.47元/天 解锁文章
7958

被折叠的 条评论
为什么被折叠?



