AI算力真正的瓶颈,不是芯片,而是电

用户头像
十倍幻想家
 · 广东  

过去两年,市场谈AI,几乎只讨论三样东西:GPU、HBM、光模块。这些环节确实涨得最猛。但如果把AI算力系统完整拆开,会发现一个被忽略的变量:电力。AI算力革命,本质是一场能源革命。

一、AI正在吞噬电力

AI的电力消耗远超市场想象。一个简单例子:GPT-4训练14周消耗 42.4GWh电力。相当于:2.85万户家庭一天用电。

再看全球数据中心:2024年用电 415TWh,2030年预计 945TWh,几乎等于 日本全国用电规模

更关键的是:AI算力能耗增长速度 ≈ 电网新增供电速度的4倍。

这意味着:未来AI竞争,本质是电力竞争。

微软CEO甚至公开说过:GPU很多,但没有电。

二、AI服务器正在进入“电力极限”

为什么突然缺电?因为GPU功耗正在爆炸式增长。H100 700W、B300 1400W、VR300 3600W。机柜功率正在从:10kW → 100kW → 1MW

传统服务器架构完全不是为这个级别设计的。

先看传统数据中心供电路径。

传统电源架构:电网——变压器——UPS——PDU——服务器电源——GPU

多次电力转换:AC → DC → AC → DC → DC,每一次都会损耗能量。

最终数据中心效率往往 低于90%

在AI时代,这意味着巨大的电力浪费。

AI数据中心正在转向:800V HVDC供电。

AI数据中心供电:中压交流-集中整流-800V直流母线-GPU服务器,这种架构有几个关键优势。

1、电源转换减少

从多级转换变成一次转换,效率明显提升。

2、铜线需求下降

800V电压下:同样线径输电能力提升 157%。 铜线成本下降。

3、支持兆瓦级机柜

AI服务器正在进入MW级机柜时代,48V供电无法支撑。800V是唯一解。

4、释放服务器空间

传统服务器中电源模块占空间。800V直流架构电源集中化。机柜能放更多GPU。

三、英伟达的终极目标:直流数据中心

英伟达给出的路线图非常清晰。数据中心电源会经历四个阶段。

第一阶段传统UPS供电

第二阶段UPS + 800V混合

第三阶段全直流数据中心

第四阶段固态电源系统(SST)

SST的本质是:电力系统芯片化。

利用:SiC、GaN取代传统变压器。未来数据中心:不仅算力芯片在升级,电力系统也在芯片化。

AI算力增长,不仅改变数据中心,还改变GPU供电。传统GPU供电:LPD(横向供电),但AI GPU电流正在突破:2000A → 5000A,未来甚至可能达到10000A

横向供电已经到极限。于是行业提出:VPD(垂直供电)

VPD供电:GPU-垂直电源模块-PCB背面供电

优势:电流路径更短、电阻损耗更低、PCB空间更大、支持HBM扩展

英伟达下一代 Rubin GPU将采用VPD方案。

四、AI电源产业链

如果从投资角度拆解,AI电源可以分三层。

第一层:数据中心电源系统

核心公司:科华数据中恒电气

主要产品:HVDC电源、数据中心供电系统

第二层功率半导体

核心技术:SiC、GaN

核心公司:宏微科技纳微半导体

第三层电源PCB

800V电源板设计难度大幅提升。

相关公司:中富电路

如果把AI产业链抽象成一个公式:传统理解算力 = GPU,但真实世界是算力 = 芯片 × 电力 × 散热。

$中富电路(SZ300814)$ $中恒电气(SZ002364)$ $宏微科技(SH688711)$