Sunlord破解AI服务器供电难题!揭秘高效、小型化电感黑科技

AI服务器供电黑科技揭秘

AI服务器:新需求催生新变革
2025年,人工智能正以前所未有的速度重塑全球经济格局,从大模型训练到行业应用落地,AI服务器作为算力核心基础设施,成为科技竞争的战略高地。AI 服务器的崛起,是人工智能时代发展的必然结果。与普通服务器相比,AI 服务器在架构、工作方式和功率等方面都有显著差异。它们采用 CPU+GPU/NPU 等加速卡的架构,以并行处理的方式高效完成复杂任务,功率更是大幅提升。
1、GPU/ASIC功耗爆炸式增长:
单颗GPU的功耗已经从几年前的300W-400W,飙升到如今的1400W(B300)。下一代R200 GPU预计将达到1800W。这相当于一个小型家用吹风机的功率集中在比手机还小的芯片上。功耗增加的同时,芯片制程还在微缩,导致单位面积上的功率密度(W/mm2)急剧上升,产生巨大的热量,对供电的响应速度和效率要求极高。
2、供电架构模式转变:
AI 服务器目前主流的供电架构为48V12V,未来将会迈向48V直接转6.75V或更低电压模式,减少了中间转换环节,提升了整体效率,但是对电路上的元器件性能要求则会更高。
在这里插入图片描述

供电模式转变:横向供电→垂直供电→集成供电
随着生成式人工智能训练处理器的连续电流需求增加到1000A,PoL 转换器被放在xPU的横向(旁边)位置。由于铜的电阻率和 PCB 上的走线长度,横向放置的 PoL 供电网络(PDN)的集总阻抗相当高,可能达到 150μΩ或更高,这意味着 PCB走线就会消耗掉 150W的功率。垂直供电VPD结构的出现,将 PoL 转换器直接放置在xPU的下方。在垂直供电网络中,其总阻抗可能降至15μΩ或更低,这意味着在内核电压域1000A培的连续电流下,只会消耗 15W的功率。为进一步减小PDN的功率消耗,未来会进一步将供电模块集成到xPU内部。
LPD(Lateral Power Delivery)、VPD(Vertical Power Delivery)、IVR(Integrated Voltage Regulator)技术的

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值