$AMD(AMD)$ $慧与(HPE)$ HPE正在把AMD的Helios架构作为其2026年起面向市场的旗舰机架级AI平台之一,将率先向客户提供基于Helios的一体化72 卡GPU机架,用于万亿参数级大模型训练和高吞吐推理,这也使 HPE 成为首批采用该架构的主流系统厂商。 对 AMD 而言,这一合作让 Helios 从参考设计正式走向商用系统层面,为其与 NVIDIA GB200 NVL72 等机架级方案展开正面竞争提供了重要的 OEM 阵地。
HPE公告的核心内容
HPE 计划自2026年起在全球提供基于AMD “Helios” 的AI机架级架构,首先面向云服务提供商和“新型云厂商”(neocloud),以一整机架交付训练和大规模推理所需的算力、网络与软件栈。[11][13][17][5]
该方案被定位为HPE AI基础设施组合中的关键支柱之一,与其现有的 AI 规模扩展网络产品(scale‑out、scale‑across 以太网解决方案)形成互补,构成完整的 “networks for AI” 组合。
主要技术细节
单个Helios机架可集成72块AMD Instinct MI455X(或后续 MI400 系列)GPU,搭配下一代 EPYC “Venice” 处理器,以及 AMD Pensando “Vulcano” NIC 和基于 Broadcom Tomahawk 6 的 HPE/Juniper 定制纵向扩展交换机。
- 官方公布的机架级指标包括:最高约 2.9 ExaFLOPS 的 FP4 AI 性能、约 260 TB/s 的机架内部带宽、数十 TB 级的 HBM4 容量,以及极高的 HBM 内存带宽,面向万亿参数模型训练和大规模推理场景。
- 机械结构基于 OCP 的 Open Rack Wide(双宽 ORW)标准,采用直液冷等高效散热方式,并为高功耗、高密度 AI 机架优化了供电和可维护性。
在互联架构上,Helios 利用 Ultra Accelerator Link over Ethernet(UALoE)等开放标准,把72块GPU 组合成一个紧耦合的加速“池”,在以太网上实现类似 NVLink‑Pod 的纵向扩展效果,同时避免绑定专有互联和封闭生态。
对 HPE 的影响
差异化产品:Helios让HPE拥有一个以AMD为核心、基于开放以太网的机架级AI方案,可作为NVIDIA NVLink/InfiniBand机架的替代选择,帮助CSP 和neocloud获得第二供应源并降低厂商锁定风险。
网络与软件拉动:该平台深度绑定 HPE Juniper Networking与Broadcom 芯片的纵向扩展交换机,以及 AI 原生自动化和运维软件,有望显著提升高端网络与订阅式服务的附加销售。
- 高价值 SKU:Helios 以整机架方式交付,价格与项目规模均处于高端区间,非常契合 HPE GreenLake 等“基础设施即服务”与托管 AI 基础设施模式,对 2026–2028 年 HPE 在 AI 基础设施收入和利润率提升具有潜在放大效应。
对 AMD 的影响
架构落地与品牌提升:通过HPE这一重量级OEM,Helios 从“路线图产品”迈向可大规模部署的标准化系统平台,有助于强化 MI455X/MI400 GPU 与 EPYC “Venice” 在高端 AI 数据中心市场中的形象。
从“卖芯片”走向“卖机架”:Helios 让 AMD 从单卡/单节点供应商升级为机架级整体方案提供方,更好对标对手在整机、整柜层面的竞争,支撑其在 AI 数据中心万亿美元级总可服务市场(TAM)中争取更大份额。
软件与生态:该平台以开源 ROCm、开放以太网与 UALoE 为基础,叠加 HPE 在 CSP 与 neocloud 客户中的渗透,有望加速 AMD 生态在大模型训练、推理和企业 AI 工作负载中的成熟度和采用率。
总体来看,这次 HPE 率先采用 Helios 的公告,既是 HPE 在开放以太网 AI 基础设施上加注的一步,也是 AMD 从芯片走向机架级系统的重要里程碑,将在 2026 年之后对双方的 AI 数据中心业务产生实质推动。