过去两年,市场谈AI,几乎只讨论三样东西:GPU、HBM、光模块。这些环节确实涨得最猛。但如果把AI算力系统完整拆开,会发现一个被忽略的变量:电力。AI算力革命,本质是一场能源革命。
AI的电力消耗远超市场想象。一个简单例子:GPT-4训练14周消耗 42.4GWh电力。相当于:2.85万户家庭一天用电。
再看全球数据中心:2024年用电 415TWh,2030年预计 945TWh,几乎等于 日本全国用电规模。
更关键的是:AI算力能耗增长速度 ≈ 电网新增供电速度的4倍。
这意味着:未来AI竞争,本质是电力竞争。
微软CEO甚至公开说过:GPU很多,但没有电。
为什么突然缺电?因为GPU功耗正在爆炸式增长。H100 700W、B300 1400W、VR300 3600W。机柜功率正在从:10kW → 100kW → 1MW
传统服务器架构完全不是为这个级别设计的。
先看传统数据中心供电路径。
多次电力转换:AC → DC → AC → DC → DC,每一次都会损耗能量。
最终数据中心效率往往 低于90%。
在AI时代,这意味着巨大的电力浪费。
AI数据中心正在转向:800V HVDC供电。
从多级转换变成一次转换,效率明显提升。
800V电压下:同样线径输电能力提升 157%。 铜线成本下降。
AI服务器正在进入MW级机柜时代,48V供电无法支撑。800V是唯一解。
传统服务器中电源模块占空间。800V直流架构电源集中化。机柜能放更多GPU。
英伟达给出的路线图非常清晰。数据中心电源会经历四个阶段。
SST的本质是:电力系统芯片化。
利用:SiC、GaN取代传统变压器。未来数据中心:不仅算力芯片在升级,电力系统也在芯片化。
AI算力增长,不仅改变数据中心,还改变GPU供电。传统GPU供电:LPD(横向供电),但AI GPU电流正在突破:2000A → 5000A,未来甚至可能达到10000A
横向供电已经到极限。于是行业提出:VPD(垂直供电)
优势:电流路径更短、电阻损耗更低、PCB空间更大、支持HBM扩展
英伟达下一代 Rubin GPU将采用VPD方案。
如果从投资角度拆解,AI电源可以分三层。
主要产品:HVDC电源、数据中心供电系统
核心技术:SiC、GaN
800V电源板设计难度大幅提升。
相关公司:中富电路
如果把AI产业链抽象成一个公式:传统理解算力 = GPU,但真实世界是算力 = 芯片 × 电力 × 散热。