最近都是老信息多。没啥新信息。
“光子革命:硅光子与共封装光学如何突破‘铜墙’”
作者:
2026年1月13日 14:29(美东时间)
人工智能行业正式进入了“光速计算”时代。随着 CES 2026 落幕,所谓“铜墙”——即传统电气布线在芯片之间传输数据时因自身发热或信号完整性丧失而无法继续扩展的物理极限——终于被突破。那个长期承诺、如今终于实现规模化的解决方案,是硅光子(SiPh)与共封装光学(CPO)。通过将基于激光的通信直接集成到芯片封装内,行业正在克服曾威胁到万亿参数 AI 模型发展的能耗与时延瓶颈。
本月来自行业巨头与专业初创公司的发布,标志着 AI 超级计算机构建方式的范式转变。相较于过去庞大的 GPU 集群需要在数米铜缆上艰难沟通,如今新的“光学 AI 工厂”用光来搬运数据,能耗只是过去的零头,几乎没有延迟。随着英伟达(NASDAQ: NVDA)与博通(NASDAQ: AVGO)推进集成 CPO 的硬件进入量产,下一代 AI 基础设施的蓝图已被光子重写。
这一转型的核心是从“可插拔”光模块——长期位于服务器边缘的可更换单元——迁移到共封装光学(CPO)。在 CPO 架构中,光学引擎被直接移到与 GPU 或网络交换芯片相同的基板上。这消除了此前为驱动电信号跨越电路板而必须的高功耗数字信号处理器(DSP)与长铜走线。在 CES 2026 上,英伟达发布了 Spectrum-6 以太网交换机(SN6800),其总带宽高达 409.6 Tbps。借助集成的硅光子引擎,Spectrum-6 将互连功耗较上一代降低了 5 倍,同时网络韧性提升了一个数量级。
2026 年硬件的技术规格显示出能效的巨大飞跃,以每比特皮焦(pJ/bit)计量。传统铜缆与可插拔系统在 2025 年初通常消耗 12–15 pJ/bit。博通的新一代 CPO 系统——尤其是现已全面量产的 Tomahawk 6 “Davisson” 交换机——把这一数值降到低于 3.8 pJ/bit。这一 70% 的功耗下降并非小修小补;它决定了一个 AI 数据中心究竟需要一座核电站,还是可以在现有电网内运行。此外,时延也大幅下降。过去可插拔光模块会带来 100–600 纳秒的延迟,如今来自 Ayar Labs 等初创公司的新型光学 I/O 方案能实现接近芯片级的 5–20 纳秒速度,让成千上万颗 GPU 像一个统一、庞大的“大脑”协同工作。
这次变革不同于以往方法:通过 3D 堆叠将发光与调制从“海岸线”(芯片边缘)移入封装核心。台积电(NYSE: TSM)在此发挥了关键作用,将其 COUPE(紧凑型通用光子引擎)技术推进到量产。借助 SoIC-X(系统级集成芯片),台积电正将电子芯片与硅光子芯片直接进行混合键合。AI 研究界反应热烈,因为这些规格意味着此前占据 30–50% 的“通信开销”有望在 2026 年底前几乎被消除。
这一突破的商业影响正在重塑硅谷的竞争格局。英伟达(NASDAQ: NVDA)依然领跑,借本月正式发布的 Rubin GPU 架构,将客户锁定在一个垂直整合的光学生态中。通过把 Vera CPU 与 Rubin GPU 配合基于 CPO 的 NVLink 互连,英伟达正把自身定位为唯一能交付“交钥匙”百万 GPU 集群的厂商。不过,向光学的转进也为一个强大的对抗联盟打开了大门。
迈威尔(NASDAQ: MRVL)在战略收购 Celestial AI 与 XConn Technologies 后崛起为强劲挑战者。通过主推 UALink(通用加速器互连)与 CXL 3.1 标准,迈威尔提供了一种“开放”的光学网络,使亚马逊(NASDAQ: AMZN)与谷歌(NASDAQ: GOOGL)等超大规模云商能够打造自有 AI 加速器,同时仍与英伟达的性能匹敌。战略优势正转向掌控封装与硅光子知识产权的公司;因此,台积电(NYSE: TSM)成为行业终极“造王者”,其 CoWoS 与 SoIC 封装产能如今决定着全球 CPO 赋能的 AI 芯片总供应量。
对初创与二线玩家而言,进入门槛显著提高。向 CPO 过渡需要把先进液冷设为默认标准,因为集成光学引擎对 1200W GPU 所产生的巨大热量极为敏感。无法同时掌握光子学、3D 封装与液冷交叉领域的公司正被边缘化。与此同时,曾经由传统网络公司把持、价值数十亿美元的可插拔光模块市场正迅速萎缩,因为一线 AI 研究机构转向固定、共封装方案以最大化效率并降低总体拥有成本(TCO)。
硅光子的更广泛意义不仅在于速度;它是解决已上升为国家安全与环境紧急议题的“能量之墙”的主要方案。随着 AI 集群功率攀升至 500 兆瓦甚至更高,向光学的转变代表了计算史上最重要的可持续里程碑。通过把数据迁移的能耗降低 70%,行业实际上将那部分电力“回收”到真正的计算上,使模型更大、训练更快,而碳足迹不再同比增长。
此外,这一发展还标志着计算与物理距离的“解耦”。在传统基于铜的架构中,为保持信号完整性,GPU 必须高密度堆叠,导致极端热密度。硅光子让数据可在公里级距离内以可忽略的损耗传输,从而实现“解耦型数据中心”。在这种新模式下,内存、计算与存储可以位于设施的不同区域——甚至不同建筑——却仍能像在同一主板上那样协同工作。这是对过去 80 年定义计算的冯·诺依曼架构约束的一次根本性突破。
不过,转型并非没有顾虑。向 CPO 的迁移在数据中心引发“可维修性危机”。与可插拔模块不同,后者故障即可轻松更换;而在 CPO 系统中,一个光学引擎的失效可能意味着要更换整颗 4 万美元的 GPU 或 20 万美元的交换机。为应对这一问题,英伟达与博通引入了“可拆卸光纤连接器”和外置激光源(ELS),但这些集成系统在 24/7 的高温 AI 工厂环境下的长期可靠性,仍是行业质疑的焦点。
展望未来,硅光子的近期路线图聚焦“光学内存”。迈威尔与 Celestial AI 已展示可提供最高 33TB 共享容量、亚 200ns 时延的光学内存设备。这意味着到 2026 年末或 2027 年,“GPU 内存”的概念可能会过时,取而代之的是通过光访问、由机架内任意处理器共享的庞大 HBM4 内存池。我们也预计随着每通道 200G 的 SerDes 成为标准,将首次亮相 1.6T 与 3.2T 的每端口速率。
长期来看,专家预测“全光计算”的到来——不仅用光来传输数据,还在张量核心内用光进行实际数学运算。尽管这仍处于实验室阶段,但 CPO 的成功商业化是必要的第一步。未来 18 个月的主要挑战将是制造良率。随着光子学进入 3D 堆叠领域,把发光材料与硅进行键合的复杂性极高。可以预见,随着晶圆厂竞相稳定这些复杂多芯片系统的生产,行业将经历一场“良率之战”。
硅光子与共封装光学在 2026 年初的到来,构成了 AI 行业的“不可逆转点”。从电到光的互连转型,或许是自集成电路发明以来最重大的硬件突破,实质性地移除了限制人工智能规模的物理边界。随着英伟达的 Rubin 平台与博通的 Davisson 交换机领衔推进,通往百万 GPU 集群的道路不再被“铜墙”阻挡。
关键结论是:AI 的未来不再只取决于芯片上的晶体管数量,而取决于在它们之间移动的光子数量。这一进展确保了 AI 的快速发展能在本十年内持续,由一个能效高、低时延的光速网络基础所支撑。接下来几个月,行业将关注 Rubin NVL72 系统的首次部署,观察其真实世界表现能否匹配在 CES 上看到的惊人基准。目前来看,“以光速计算”的时代已经正式到来。
以上内容仅用于信息参考,代表对当前 AI 发展的分析。