AI算力的下一个瓶颈:被忽视的“板载电源革命”

用户头像
十倍幻想家
 · 广东  

过去两年,AI算力产业链已经走过三轮行情。

第一轮是 GPU

第二轮是 光模块

第三轮是 PCB、铜连接、液冷

这些环节的共性是:它们解决的都是算力密度提升带来的基础设施问题。

但如果把AI服务器架构再往下拆,会发现一个新的瓶颈正在出现:电源系统。

当AI算力密度不断提高,芯片功耗持续飙升,供电系统正在成为新的技术极限。一场围绕 板载电源架构的革命,已经开始。

一、AI算力的功耗正在突破供电极限

传统服务器时代,电源从来不是核心矛盾。一颗CPU或GPU功耗大约 200W—400W,供电网络完全能够承载。

但AI时代改变了这一切。随着大模型规模扩大,新一代AI芯片功耗迅速提升:

AI GPU / ASIC 功耗: 800W—1200W

核心电压: 0.8V左右

电流需求: 500A1000A

这意味着一个极端情况:低电压 + 超大电流。

电流越大,传输损耗越严重。在传统供电网络(PDN)中,大电流需要通过PC

点击查看全文