【英伟达 华盛顿GTC大会要点 Rubin Ultra NVL576平台发布 】
一、核心硬件:Vera Rubin超级芯片系列重磅发布
1. Vera Rubin NVL144平台
◦ 架构设计:整合1颗Vera CPU(88个定制Arm核心,支持176线程)与2颗Rubin GPU,GPU采用两颗光罩级核心芯片,配备8个HBM4显存接口。
◦ 性能参数:FP4推理算力达3.6 Exaflops,FP8训练算力1.2 Exaflops,相较上一代GB300 NVL72提升约3.3倍;显存带宽13 TB/s,快速存储容量75 TB,分别提升60%。
◦ 量产计划:2026年第三或第四季度量产,与GB300 NVL72平台量产时间相当或更早。
【解读:GB300后的算力新增量逻辑,具体细分待市场挖掘,不外乎3.2T 浸没式液冷模块 高阶PCB 液冷服务器等】
2. Rubin Ultra NVL576平台(2027年下半年推出)
◦ 规模扩展:GPU升级为4颗光罩级核心,NVL规模从144扩展至576。
◦ 性能峰值:FP4推理算力15 Exaflops,FP8训练算力5 Exaflops,较GB300 NVL72提升14倍;HBM4显存带宽4.6 PB/s,快速存储容量365 TB,为上一代的8倍。
3. Rubin CPX GPU(推理专用)
◦ 定位:专为超长上下文推理与视频生成设计,采用GDDR7显存(128GB),单卡算力30 Petaflops(NVFP4精度)。
◦ 平台整合:作为Vera Rubin NVL144 CPX平台的一部分,整机架算力8 Exaflops,内存带宽1.7 PB/s,性能较前代提升7.5倍,计划2026年量产。
【解读:Rubin产业链受益将逐步明确,从概念走到现实】
二、算力基建与生态合作
1. 模块化算力中心方案
◦ 推出基于MGX架构的模块化快速建造算力中心,支持液冷技术与高密度部署(单机架功率最高120千瓦),可将数据中心部署周期从12个月缩短至90天内。
◦ 硬件整合:展示液冷AI服务器机架,单个机架重2吨、含150万个零部件,1吉瓦数据中心需8000个此类机架。
(注意,RUBIN架构的液冷整合,价值量提升明显)
2. 与富士康的深度合作
◦ 富士康作为钻石级赞助商,展示次世代GB300 NVL72服务器机柜,采用液冷技术与Omniverse数字孪生优化散热设计,为Vera Rubin系列提供制造支持。
◦ 生态延伸:双方合作涵盖智慧工厂(数字孪生生产线)、机器人(半导体复合型机器人、护理机器人Nurabot)及AI大模型(繁体中文LLM“FoxBrain”)。
【个人解读:富士康逐步成为全球AI算力基建核心工厂,液冷和机器人阐述27年后增量逻辑】
三、跨领域技术布局
1. 6G与通信技术
◦ 与诺基亚达成合作,推出NVIDIA ARC电信计算平台,基于CUDA-X构建AI原生无线堆栈,支持AI-RAN技术,为无人机、汽车等设备提供6G网络连接;同时联合T-Mobile、思科打造美国首个6G AI原生无线堆栈。
2. 量子计算
◦ 发布NVQLink技术,连接传统GPU与量子计算机,利用GPU承担量子纠错的控制算法负载,解决量子计算的环境噪声敏感问题。
【个人解读:技术新概念来了,NVQLink,也就是GPU➕量子计算】
3. 物理AI与机器人
◦ 推出开源机器人基础模型Isaac GROOT N1与物理引擎Newton,联合Figure等企业加速人形机器人研发;发布工业级边缘AI平台IGX Thor,边缘侧AI算力较上一代提升8倍。
◦ 数字孪生应用:展示核聚变反应堆数字孪生模型,实现秒级等离子体行为预测;应用于智慧医疗(数字孪生医院病房)与智慧城市(道路安全AI系统)。
4. 自动驾驶
◦ 推出DRIVE AGX Hyperion 10平台,支持L4级自动驾驶,集成14个摄像头、9个雷达及Blackwell架构车载计算平台;与Uber合作,其车辆将接入Uber平台。
四、商业与市场动态
• 订单与营收:黄仁勋宣布截至2026财年末,Blackwell与Rubin芯片订单已达5000亿美元,远超市场预期。
【综上,全球AI算力发展是非线性跃升曲线,新一代平台发布将2027年图景逐步清晰,投资角度最受益的还是各模块核心巨头厂商,重点增量是PCB 浸没式液冷 光模块以及具身智能 量子计算等等。更多受益细分待市场逐步发掘。】
#人工智能# #华盛顿GTC大会# $英伟达(NVDA)$ $苹果(AAPL)$ $诺基亚(NOK)$