【为什么说光模块之后一定是液冷】
芯片功耗高到风冷扛不住了,必须上液冷;而AI公司要想大规模扩张,也得提前布局更省电、算力更强的基础设施。
英伟达给GB300全面上液冷,纯粹是被“热”逼的。一块GB300芯片全力跑起来,功耗能到1400瓦,一个机柜(比如GB300 NVL72)的热设计功耗(TDP)甚至能达到130-140千瓦。这热量风冷根本压不住,芯片过热会降频甚至损坏,液冷成了唯一能让它“满血干活”的法子。这就像是给跑车换上了更强的散热系统,不然发动机根本发挥不出威力。
OpenAI砸巨资建数据中心,是因为AI推理(像ChatGPT回答你的问题)是持续耗电的。虽然单次查询能耗可能不高(有研究说约0.3-0.34瓦时),但架不住用户量巨大、访问频繁,总电费非常惊人。它必须提前囤积更强大、更高效的算力和电力供应,不然业务没法扩张。
液冷机柜相比风冷,优势明显:
它能将数据中心的PUE(电源使用效率)做到1.1甚至更低,而传统风冷通常在1.5以上。这意味着更少的电被用在散热上,更多的电直接用于计算。
正如你说的,省下来的电就是实打实的利润。有案例显示,液冷方案虽初期投资高,但长期运营成本(OPEX)更低,三年节省的电费可能超过初期增加的投入。
所以,这两家一个卖“铲子”(英伟达提供必须的液冷AI服务器),一个“挖金矿”(OpenAI等应用AI模型),同步动作说明:
高功耗、高密度计算已是现在进行时:AI竞赛进入了拼“硬”实力的阶段,算力基础设施是关键。
液冷技术从“可选项”变成了“必选项”:特别是对于高端AI训练和推理。
至于不买液冷的玩家还能撑多久?
这要看他们玩的是什么级别的“游戏”:
如果是训练或部署最前沿的大模型(比如千亿参数级别、依赖像GB300这类芯片),那基本已经没得选,或者说很快会没得选。不用液冷,硬件可靠性、计算性能都无法保障,可能一两年内就会在算力上掉队,甚至拿不到“入场券”。
如果是做一些相对轻量级的AI应用(比如用一些优化过的中小模型),传统风冷或许还能支撑一段时间。但也要注意,AI芯片功耗整体在提升是个趋势。
液冷在AI数据中心(尤其是智算中心)的渗透率正在快速提升。有预测指出,其在AI数据中心的渗透率将从2024年的14%,大幅提升至2025年的33%。这波潮流,主力玩家们肯定是跟进的,其他玩家要么尽快适应,要么可能就要逐渐边缘化了。
液冷板块中最值得期待或最有可能成为千亿市值的龙头公司无非就是两家:英维克和申菱环境。
$英维克(SZ002837)$ $申菱环境(SZ301018)$