$罗博特科(SZ300757)$ 看好内存Expander大趋势,单AI芯片将开始通过内存Expander绕过CPU直连DRAM,未来可能单AI芯片获得超过2TB以上DRAM!【天风海外李泽宇】
于我们近期硅谷调研中,北美ASIC与GPU厂商普遍提到,传统 HBM scaling已接近物理极限,AI的推理能力需要容量与带宽进一步拓展,26年开始,让AI芯片直接访问DRAM与NAND的架构设计的最新核心变化。在25、26的偏成熟方案,中板,池化都是短期拓展的方案,往26-27年看呢?我们认为内存Expander为最重要的新趋势。Marvell收购Celestial AI即为光学互联方案的有力潜在选项。相比此前8卡服务器1张AI卡只能通过CPU调度获得256-512GB DRAM,未来可能获得单卡2TB以上接近HBM3速度的DRAM.
现有版图(Marvell)
Inphi 系列:数据中心光电 DSP(PAM4/相干)、LPO/CPO 生态,800G→1.6T 路线占位。
交换/路由:Teralynx(来自 Innovium),数据中心以太网与 AI 集群背板的关键份额。
定制计算与 DPU:与AWS合作的定制 ASIC、Octeon DPU 等。
封装/链路 IP:SerDes、UCIe、Chiplet 生态的工程落地经验。
存储IP:SSD Controller、NVME ip等。
最高55亿美元收购Celestial后,Marvell获得的解决方案什么是?通过Photonic Fabric Memory Module让AI芯片不通过边缘侧而从中间实现互联
技术突破: 2TB DDR5 @7.2TB带宽(通过光互联实现,接近HBM3带宽)
经济性: 16模块/2U = 33TB容量(放在一个server tray里面,实现大幅容量拓展,这样的模块成本远低于HBM)
应用场景: Memory-bound workload(推荐系统、大模型推理)
(并且某Hyperscaler——疑似AWS已经导入测试)
收购完成后,各大AI龙头的解决方案?
Broadcom(AVGO)
现状:交换 ASIC 龙头 + CPO/硅光/相干链条完整;平台化能力最强。
变化:Marvell 获得 OIO 后,在“封装内/板上光互联”维度与之正面对齐;两家都能覆盖从芯内到机房的端到端解法。
NVIDIA
现状:NVLink/NVSwitch + 光互联规划(对外有限披露,但投资了Ayarlab),强在软硬一体与封闭生态。
Expander变化:我们能调研下来NV自己的方案中Scaleup暂时还是电链接为主,今年买了Enfabrica是通过PCIE/CXL联的内存,后续值得关注
AMD/Intel
AMD:Infinity 生态 + CXL;Intel:长期押注 CXL + Falcon Shores 等,OIO Expander 节点更多通过伙伴(如 Ayar Labs)推进。
纯 OIO 创业公司
Ayar Labs:HVM 时间线 2026/27。若没有系统级抓手,商业推进压力更大。
Lightmatter:他们技术领导人之一已经入职OpenAI负责整个ASIC团队,销售驱动策略+“AI通用承载基板”逻辑
其他生态位
CXL/Pooled Memory 厂商(如 Astera Labs):在“容量扩展/共享”上仍有价值,但实际上 OIO 构成CXL直接竞争。
光引擎、DRAM:受需求拉动
TSMC:继续作为晶圆代工受益
未来最终解决方案:定制HBM/OIO Expander/3D堆叠内存(例如高通的AI250) 我们均认为可能是解决内存墙,大幅提高Agent能力的核心动力,其各有技术难点