过去十年,AI 算力的扩展主要依靠两条路径:
Scale-up(向上扩展):在单台服务器里塞入更多 GPU。
Scale-out(向外扩展):在单个数据中心里堆叠更多节点。
但这两条路径都有极限。
电力瓶颈:一个数据中心的供电容量有限,再加 GPU 就会“跳闸”。
散热瓶颈:空调和液冷都要花大钱,场地物理限制越来越突出。
这意味着:即使有钱建机房,也很难无限叠加算力。
于是英伟达提出了第三条路:
Scale-across(跨域扩展):通过网络把多个数据中心“拼接”成一个统一的超级计算单元。
这正是 Spectrum-XGS 的使命。
英伟达最新发布的 Spectrum-XGS Ethernet 是一种 跨数据中心互联(DCI)解决方案:
在 协议层:优化以太网算法,实现跨几十公里、甚至跨城市的稳定互联。
在 系统层:支持多数据中心作为一个“超级GPU”协同运行,提升 AI 训练的效率。
在 产业定位:它是 AI 工业革命的第三支柱 —— 与“向上扩展”和“向外扩展”并列。
英伟达 CEO 黄仁勋 用了一句很形象的话:
“未来的 AI 工厂,不止要大,还要能把城市、国家乃至洲际的数据中心拼接起来。”
跨数据中心互联(DCI)面临的最大挑战是 传输距离:
机架内、机房内:铜缆 DAC/AOC 足够。
机房之间、城市之间:只有光纤能提供 超长距离 + 超大带宽 + 低延迟。
因此,Spectrum-XGS 的物理层必然要依赖:
光模块(400G / 800G / 1.6T)
硅光子技术(Silicon Photonics)
CPO(共封装光学)方案
长距光纤链路
换句话说,这是一个以太网协议栈 + 光通信硬件的组合。
Spectrum-XGS 不是孤立的新品,而是一个 产业级信号:
上游厂商
光芯片(硅光、激光器、探测器)
高速 DSP 芯片
中游厂商
光模块(800G、1.6T)
光交换机
下游厂商
超大规模数据中心运营商(CoreWeave、AWS、Google、Meta 等)
电力与散热基础设施企业
受益逻辑:AI 工厂的规模化扩展,必然驱动 DCI 光通信需求井喷。
短期:光模块(尤其是 800G/1.6T 高速模块)订单放量。
中期:硅光技术开始大规模商用。
长期:跨区域 AI 工厂的兴起,会像当年的“光纤互联网”一样,形成新一轮基础设施周期。