谷歌TPU出货量及ASIC芯片布局情况

用户头像
私-募2019
 · 上海  

Q:2025 年 Google TPU 的全年出货量预计是多少?各季度的出货量分布如何?

A:2025 年 Google TPU 的全年出货量预计达到250 万片。从季度累计数据来看,截至 2025 年第三季度,其累计出货量已攀升至180 万片,这意味着前三季度的出货量已完成全年目标的 72%,为全年任务的达成奠定了坚实基础。具体到各季度的分布情况,第一季度出货量约为50 万片,作为全年的开局阶段,出货量相对平稳;第二季度出货量小幅增长至约55 万片,呈现稳步上升趋势;第三季度出货量迎来显著增长,达到约70-75 万片,这与下半年数据中心部署需求启动密切相关;而第四季度则需完成剩余的 70-80 万片(250 万片 - 180 万片)出货量,以确保全年 250 万片目标的实现。这些数据均基于日历年度(calendar quarter)进行精确统计,能清晰反映出 Google TPU 全年的出货节奏。

Q:2025 年 Google TPU 不同型号(V5E、V5P、V6E、V6P)的出货量及比例如何分布?

A:在 2025 年 Google TPU 总计 250 万片的出货量中,不同型号的出货量和占比存在明显差异。其中,TPU V5 系列(涵盖 V5E 和 V5P)作为当前的主力产品线,总出货量预计为190 万片,占全年总出货量的 76%,是支撑全年出货目标的核心。具体来看,V5E 的出货量约为120 万片,V5P 的出货量约为70 万片,二者出货比例接近 2:1,这一比例反映出市场对中低端型号 V5E 的需求更高,可能与其中等性能和相对亲民的价格更适配多数场景有关。而 TPU V6 系列(包括 V6E 和 V6P)作为新一代产品,预计总出货量为60 万片,占全年总出货量的 24%。目前仅有 V6E 已在市场上正式销售,承担该系列前期的市场推广任务;V6P 则计划在第四季度正式上市,受限于初期产能爬坡,其初期产量相对较少,预计在10-20 万片左右,后续将根据市场反馈逐步提升产能。

Q:Google TPU 在 2025 年的上半年与下半年的出货比例如何?是否存在季节性差异?

A:2025 年 Google TPU 在上半年(第一、第二季度)与下半年(第三、第四季度)的出货比例大致为40% 和 60% ,这一比例差异清晰地体现出显著的季节性特征。从具体数据来看,上半年两个季度的出货量合计约为 105 万片(50 万片 + 55 万片),下半年两个季度的出货量合计约为 145-155 万片(70-75 万片 + 70-80 万片),下半年出货量比上半年高出约 40-50 万片。这种明显的季节性差异主要源于数据中心的大规模部署规律 —— 多数企业和机构会选择在下半年集中推进数据中心的建设与升级工作,以确保在年底前完成年度 IT 基础设施投入目标,这直接带动了对 TPU 这类核心计算芯片的需求激增,进而使得 Google TPU 在后半年的出货量大幅高于上半年。

Q:Google TPU 各型号的定价情况如何?

A:Google TPU 各型号因性能规格、技术复杂度不同,其平均价格存在一定差异,且定价策略与产品定位高度匹配。其中,定位中低端、主打性价比的 V5E,平均价格约为3000 美元,该价格使其在对性能要求不极致但注重成本控制的场景中具有较强竞争力;定位中高端、性能更优的 V5P,平均价格约为6000 美元,是 V5E 的两倍,主要面向对计算能力有更高需求的中型数据中心或 AI 训练任务;作为 V6 系列首款上市的产品,V6E 在性能上介于 V5E 和 V5P 之间,平均价格约为4000 美元,既兼顾了性能提升,又控制了成本增长;而计划在第四季度推出的 V6P,作为当前最新款高端产品,预计售价达到8000 美元,其高价主要源于更先进的制程工艺、更高的算力密度以及新增的功能特性。需要注意的是,这些价格并非完全固定,可能会因台积电制程工艺的成本调整而出现小幅波动,但整体变化幅度相对有限,不会出现大幅涨跌,以保持市场价格的稳定性。

Q:2025 年 Google TPU 整体平均售价(ASP)是多少?未来是否会有显著增长?

A:2025 年 Google TPU 整体平均售价(ASP)大致维持在4500 美元左右,这一价格水平是综合了 V5 系列和 V6 系列各型号的出货量占比与单价计算得出的 ——V5 系列出货量占比高但单价相对较低,V6 系列单价高但出货量占比低,二者相互平衡形成了这一平均售价。展望 2026 年,Google TPU 的整体 ASP 预计将保持在4500 至 5000 美元之间,不会出现显著增长。主要原因有两方面:一方面,新一代产品 TPU V7 系列的推出虽可能拉高平均售价,但另一方面,现有产品如 TPU V6E 的价格会随着生产规模扩大、成本摊薄而逐渐下降,二者形成对冲;此外,从市场竞争和客户需求来看,过高的价格增长可能会影响客户采购意愿,因此 Google 更倾向于保持价格稳定。综合来看,2026 年 ASP 的上涨幅度大概率会控制在 10% 左右,整体价格走势相对平稳。

Q:2025 年 Google TPU 相关营收规模是多少?是否可以按季度拆分营收数据?

A:通过销量与平均售价的测算可知,2025 年 Google TPU 相关营收规模可达112.5 亿美元,具体计算方式为全年预计出货 250 万颗乘以每颗 4500 美元的整体平均售价(ASP),这一营收规模反映出 TPU 业务已成为 Google 重要的收入来源之一。然而,目前由于受到多方面因素的限制,暂时无法提供按单个客户或单个 SKU 精确拆分后的每个季度营收数据。这些限制因素包括客户采购合同的保密性、不同型号 TPU 在各季度的出货节奏波动、以及内部财务统计口径的统一难度等。因此,当前仅能够依据上半年 40%、下半年 60% 的出货比例,对营收数据进行粗略估算 —— 即上半年营收约为 45 亿美元(112.5 亿美元 ×40%),下半年营收约为 67.5 亿美元(112.5 亿美元 ×60%),通过这种方式大致了解各阶段的营收情况,为业务规划提供参考。

Q:展望 2026 年,各型号 TPU 产品线在全年维度上的表现如何预期?

A:预计到 2026 年,Google TPU 的总体销量将实现显著增长,超过300 万颗,较 2025 年的 250 万片增长 20% 以上,这一增长主要得益于 AI 技术应用的持续拓展和数据中心需求的进一步释放。从各型号产品线的表现来看,市场格局将发生明显变化:一方面,TPU V7 系列作为全新一代产品将正式上线,同时现有产品线中的 TPU V6 系列会逐步取代 V5 系列成为市场主流,而旧款的 TPU V5 系列则会因性能迭代和市场需求转移而逐渐退出市场,不过具体各型号的销量构成仍需根据实际生产进度和客户订单情况进一步确认;另一方面,新一代推理芯片(如 V6E、V7E)和训练芯片(如 V6P、V7P)凭借更先进的制程工艺、更高的算力效率以及更好的能效比,仍将主导市场需求,成为推动总体销量持续增长的核心动力,在 AI 计算芯片市场中占据重要地位,同时也将帮助 Google 进一步巩固在 AI 基础设施领域的竞争力。

Q:明年 V5E、V5P、V6E、V6P、V7E 和 V7P 的出货量预期如何?

A:2026 年 Google TPU 各型号的出货量将呈现明显的新旧迭代趋势。其中,V5E 由于性能逐渐落后于市场主流需求,在新服务器中已不再进行部署,因此其出货量预计不会超过30 万颗,且主要集中在第一季度和第二季度,用于满足部分旧服务器升级或存量客户的补充采购需求,之后将逐步停产。从 V5 系列整体来看,2026 年 V5E 与 V5P 的总出货量预计为80 万颗,其中大部分为 V5P,约50 万颗,V5P 的出货量相对较高,主要是因为其性能仍能满足部分中型数据中心的训练任务需求,而 V5E 仅约30 万颗。对于新一代的 V6 系列,预计 2026 年全年 V6E 与 V6P 的总出货量将达到160 万颗左右,成为全年出货量的主力 ——V6E 经过 2025 年的市场推广已形成稳定需求,V6P 则在 2025 年第四季度上市后,2026 年将进入产能释放期,出货量会大幅增长。至于更高端的 V7 系列,预计 2026 年全年 V7E 的出货量接近50 万颗,作为 V7 系列的首款产品,V7E 将主打高性能推理场景;而 V7P 若能按计划在第四季度推出,其全年出货量可能最多达到10 万颗,但受限于研发进度、产能爬坡或客户测试周期等因素,也存在推迟到 2027 年上市的可能性,届时其 2026 年出货量将为 0。

Q:V7 系列芯片(包括 V7E 和未来可能推出的 V7P)的生产合作模式及市场份额分配情况如何?

A:为了优化供应链布局,谷歌在 V7 系列芯片(包括 V7E 和未来可能推出的 V7P)的生产上采取了多元化合作模式,核心目标是测试联发科的交付能力并分散供应链风险,避免过度依赖单一供应商带来的产能波动或成本压力。具体来看,谷歌计划将部分 V7 系列芯片的后端流片工作交由联发科进行,预计初期会有20%-30% 的产能转移至联发科,需要注意的是,这一比例主要针对谷歌内部使用的芯片,并不包括联发科自身业务所需的芯片产能。在市场份额分配方面,目前博通凭借其在芯片前端设计、技术积累以及与谷歌长期合作形成的信任基础,预计能够占据谷歌整体芯片采购份额的70% 左右,仍是谷歌最主要的芯片供应商。此外,联发科在成本控制方面具有显著优势,同时与台积电在制程工艺合作上也有深厚基础,这种 “博通为主、联发科为辅” 的合作模式,不仅有助于降低谷歌芯片的生产成本,提高产品的市场竞争力,还能为谷歌未来供应链的进一步多元化积累经验。

Q:V7 系列芯片(包括 V7E 和未来可能推出的 V7P)的定价策略是怎样的?

A:V7 系列芯片(包括 V7E 和未来可能推出的 V7P)的定价策略与产品生命周期、研发成本分摊以及市场定位密切相关,呈现出 “上市初期高价、后期逐步降价” 的规律。其中,V7E 作为新一代芯片,刚上市时价格将设定在4500-5000 美元之间,这一价格中包含了未结清的研发费用(即 NRE 费用),这些研发费用通常会摊销至前 10 万颗芯片的售价中,以快速回收前期研发投入;随着初期批次芯片销售完成、生产规模不断扩大,以及研发费用摊销完毕,生产成本会逐渐降低,因此 V7E 的价格预计到后期会下降至3000-4000 美元之间,这一价格走势与此前 V6E、V5E 等型号的价格变化规律一致,符合芯片产品 “规模效应降本” 的行业特点。而规格更高、技术更复杂的 V7P,由于其研发成本和技术含量显著高于 V7E(如采用更先进的制程、支持更高的算力和更复杂的 AI 训练任务),其定价则接近1 万美元,同样包含了 NRE 费用,以分摊高额的研发成本;不过,V7P 的具体定价可能会根据上市时的市场竞争情况、客户需求反馈以及产能情况进行微调,但整体高价定位不会改变,主要面向对性能有极致需求的高端数据中心和大型 AI 企业客户。

Q:从技术工艺角度看,未来几年内相关芯片价格是否会进一步下降?

A:从技术工艺发展的规律来看,未来几年内相关芯片(如 Google TPU、博通 ASIC 等)的价格有望继续保持下降趋势,但下降幅度相对稳定,不会出现大幅跳水。芯片价格下降的核心驱动因素是制程工艺的持续改进 —— 随着芯片从当前主流的制程(如 5nm、4nm)向更先进的节点(如 3nm、2nm)过渡,生产效率会显著提高(如单晶圆可产出更多芯片),同时原材料和制造成本会随着技术成熟度提升而逐步降低,这些因素共同推动芯片单位成本下降,进而促使终端售价降低。根据芯片行业的历史趋势和当前技术发展节奏来看,每年的价格降幅通常在5%-10% 之间,这一降幅主要体现在流片成本的减少上 —— 流片成本是芯片研发和生产中的重要成本项,先进制程流片成本虽高,但随着技术普及和生产规模扩大,流片成本会逐步分摊到更多芯片中,单位流片成本随之下降。需要注意的是,价格下降的前提是技术工艺能够稳步推进且产能能够及时跟上,若出现制程研发延迟、产能短缺或原材料价格上涨等意外情况,价格下降的幅度可能会缩小,甚至在短期内出现价格小幅上涨,但长期来看,“工艺进步→成本下降→价格降低” 的趋势不会改变。

Q:预测明年来自谷歌业务板块的营收规模是多少?

A:预计 2026 年来自谷歌业务板块的营收将在150 亿至 160 亿美元之间,这一营收规模较 2025 年的 112.5 亿美元增长约 33%-42%,增长势头强劲。这一展望是基于当前谷歌各类芯片产品线的规划(如 V6 系列产能释放、V7 系列逐步上市)以及对应市场需求的预测得出的 ——2026 年 AI 技术在各行业的应用会进一步深化,数据中心建设需求持续旺盛,直接带动对 TPU 等 AI 计算芯片的采购量增长;同时,V7 系列高端芯片的推出也会在一定程度上拉高平均售价,共同推动营收增长。不过,具体营收规模还会受到多种因素的综合影响,例如市场竞争(如英伟达AMD 等竞争对手的产品定价和性能表现)、产品价格波动(如 V6E 等产品的降价幅度)、客户订单调整(如大型数据中心客户的采购节奏变化)以及产能供应情况(如联发科能否按时交付 V7 系列的后端流片产能)等,因此实际营收可能会在 150 亿 - 160 亿美元的区间内有所波动,但整体稳步增长的趋势不会改变。

Q:谷歌在 V8 芯片的设计与生产方面是否有新的探索?目前是否存在将部分设计工作转移给联发科的趋势?具体的分工和比例如何,未来可能会有哪些变化?

A:在 V8 芯片的开发过程中,谷歌确实正在积极探索供应链多元化,其中重要的一项举措就是考虑将部分设计工作转移给联发科,尤其是在 V8e(V8 系列的中低端型号)版本上,谷歌似乎倾向于给予联发科更多的参与份额,以借助联发科在成本控制和后端制造方面的优势,同时进一步分散对博通的依赖。不过,从目前的进展来看,V8 芯片的前端设计工作仍主要由博通负责,核心原因在于博通在芯片前端设计服务(如架构设计、算力优化、能效比提升等)上的技术能力较强,能够更好地满足谷歌对 V8 芯片高性能、高稳定性的要求,而联发科在前端设计领域的经验和技术积累尚未完全获得谷歌的充分信任,因此暂时无法承担前端设计的核心任务。基于此,未来的分工趋势可能是:前端设计继续由博通主导,确保芯片的核心性能达标;而后端设计、流片、布局布线、测试和封装等环节则逐步交由联发科完成,充分发挥联发科的成本和制造优势。不过,这一分工调整并非一成不变,最终取决于 2026 年 V7 系列芯片流片结果的表现 —— 如果联发科能够按时、高质量地完成 V7 系列的后端流片任务,谷歌可能会在 V8 芯片中进一步提高联发科的参与比例;反之,若联发科的交付出现问题,谷歌可能会收缩其参与范围,甚至重新依赖博通。目前,具体的分工比例尚未确定,还需谷歌与博通、联发科根据 V7 系列的实际表现进一步协商和调整。

Q:谷歌 2027 年的营收增长预期如何?其增长驱动因素是什么?

A:预计到 2027 年,谷歌整体营收将保持10% 至 15% 的增长,相较于 2025-2026 年的高速增长(约 33%-42%),增速有所放缓,但仍处于行业较高水平。这一增长的核心驱动因素是芯片出货量的大幅提升 —— 随着 AI 技术在全球范围内的普及,各类企业、机构对 AI 计算基础设施的需求会持续增加,谷歌 TPU 作为主流的 AI 计算芯片之一,市场份额有望进一步扩大,出货量随之显著增长;同时,V7 系列芯片在 2026 年上市后,2027 年将进入全面产能释放期,V8 系列芯片也可能在 2027 年逐步推出,这些新产品的上市将进一步拉动出货量增长,进而带动营收提升。不过,需要注意的是,营收增速放缓也受到两方面因素的影响:一方面,谷歌为控制成本,将部分芯片的后端设计工作外包给台积电和联发科,这导致单颗芯片的贡献价值量(即单颗芯片带来的营收)有所下降,对冲了部分出货量增长带来的营收增量;另一方面,谷歌自身在核心模块算法结构等方面的研发能力不断增强,逐步承担更多内部开发任务,减少了对外部合作(如博通的前端设计服务)的依赖,这虽然有助于降低长期成本,但短期内也可能影响营收增长速度。总体来看,这种 “出货量驱动增长、成本控制影响增速” 的趋势,反映了整个芯片行业中设计服务外包模式的发展方向,谷歌在追求营收增长的同时,也在不断优化自身的业务结构和成本控制体系,以实现长期可持续发展。

Q:Meta 计划推出的新款训推一体芯片(MTIA 2.0)在 2025 年和 2026 年的出货量预期是多少?其价格及相关部署情况如何?

A:Meta 计划推出的新款训推一体芯片(MTIA 2.0)在 2025 年和 2026 年的出货量将呈现快速增长态势。具体来看,2025 年该芯片预计实现30 万颗的出货目标,从季度分布来看,9 月份预计出货约10 万颗,作为全年出货的启动阶段,主要用于客户测试和小范围部署;其余20 万颗将在第四季度完成出货,第四季度出货量较高,主要是为了配合 Meta 自身数据中心的年底部署计划。到 2026 年,随着产品成熟度提升和市场需求扩大,该芯片出货量预计将大幅增长至80 万颗,较 2025 年增长约 167%;从上半年与下半年的分布来看,上半年占比约 40%(即 32 万颗),下半年占比约 60%(即 48 万颗),下半年出货量更高,同样与数据中心集中部署的季节性规律一致。在价格方面,MTIA 2.0 芯片的平均售价为9000 美元,这一价格高于 Google TPU V5P(6000 美元),主要因其是训推一体芯片,集成了训练和推理功能,技术复杂度更高;不过,随着研发费用的逐步摊薄(如 NRE 费用摊销完毕)和生产规模的扩大,预计到 2026 年价格将下调至8000 美元左右,以提高产品的市场竞争力。需要注意的是,尽管该芯片的出货速度较快,但由于服务器部署进度相对滞后(服务器需要与芯片进行适配测试,周期较长),2026 年第一季度可能需要消化 2025 年底积累的部分库存,以避免库存积压影响资金周转和后续新产品的更新换代,确保供应链的健康运转。

Q:Meta 是否会减少对 ASIC 自研芯片的投入并借助英伟达AMD 提供的解决方案?其长期目标是什么?

A:Meta 明确表示不会改变自研 ASIC 芯片(如 MTIA 系列)的战略方向,更不会减少对自研芯片的投入,相反,其计划在未来三至五年内持续加大投入,实现自研芯片的全面应用和优化,使其成为自身数据中心 AI 计算的核心基础设施。Meta 坚持自研芯片的核心原因在于,自研芯片能够更好地满足其自身业务对芯片性能和功能的特殊需求 ——Meta 的业务涵盖社交、短视频、AI 推荐等多个领域,对芯片的算力、能效比、适配性有个性化要求,而英伟达AMD 等第三方供应商的通用芯片难以完全匹配这些定制化需求;同时,自研芯片还能帮助 Meta 提高产品的竞争力和差异化优势,避免在芯片供应上过度依赖外部厂商,降低因外部供应链波动(如产能短缺、价格上涨)带来的风险。此外,通过自主研发芯片,Meta 可以更好地控制产品的研发进度、生产成本和质量标准,例如根据自身业务迭代节奏调整芯片的更新周期,根据成本预算优化芯片的制程选择,这些都是依赖第三方解决方案无法实现的。因此,自研芯片是 Meta 长期发展战略中的重要一环,是其构建自主可控 AI 基础设施的关键,不会因短期市场变化或外部竞争而轻易改变。

Q:博通Meta 近期是否就订单或需求调整进行过沟通?目前是否收到任何砍单或需求变更通知?

A:截至目前,博通并未收到来自 Meta 关于订单取消或需求调整的任何信息,双方的合作仍按照原计划推进。双方最近一次正式沟通发生在 2025 年第二季度末(即 6 月底至 7 月初),在此次沟通中,Meta 明确确认了 2025 年第三季度和第四季度的芯片出货指引,即按照此前约定的数量和时间交付 MTIA 2.0 芯片,并未提出任何变更要求,这表明 Meta 对 2025 年的芯片需求仍保持稳定。此外,对于 2026 年的合作规划,博通也暂未收到 Meta 关于调整订单规模或交付时间的通知,双方仍在按照 2026 年 80 万颗 MTIA 2.0 芯片的出货预期进行前期准备(如产能预留、生产计划制定)。不过,需要注意的是,博通与 Meta 的合作时间相对较短,尚未形成类似谷歌那样的长期(如 3-5 年)规划机制,双方通常每个季度会更新一次数据和需求,因此未来情况仍需持续观察,不排除 Meta 根据自身业务调整(如数据中心建设进度、AI 业务优先级变化)在后续季度提出需求变更的可能性。根据现有信息,Meta 的数据中心规模部署计划中,既包括英伟达的通用芯片,也包括自研的 ASIC 芯片,且预计其 ASIC 芯片需求每年将增长约30%-40% ,按照这一增速推算,到 2027 年,Meta 对 ASIC 芯片的需求量可能达到100 万至 120 万颗之间,长期需求增长趋势明确。

Q:OpenAI 在 2025 年至 2027 年的芯片出货量及价格预期如何?

A:OpenAI 在 2025 年至 2027 年的芯片出货量将呈现 “从起步到快速增长” 的趋势,价格则会随着规模扩大逐步下降。具体来看,2025 年 OpenAI 的整体芯片出货量预计不会超过10 万颗,出货量较低的主要原因是其芯片产品仍处于研发后期和市场推广初期,尚未形成大规模量产能力,同时也需要时间完成与客户(主要是自身数据中心和少量合作伙伴)的适配测试,因此出货量相对有限。到 2026 年,如果芯片研发顺利完成、产能及时跟上且部署进展符合预期,OpenAI 的芯片出货量预计将实现跨越式增长,达到50 万颗左右,较 2025 年增长 400%,这一增长主要得益于其 AI 模型(如 GPT 系列)的应用拓展,带动对自有芯片的需求激增;同时,随着产品逐渐成熟和市场认可度提高,外部客户的采购订单也会逐步增加,进一步拉动出货量。到 2027 年,按照 30%-40% 的年均增长率推算,OpenAI 的芯片出货量可能接近70 万至 78 万颗,此时产品已进入稳定增长期,产能和市场需求均趋于成熟。在价格方面,OpenAI 当前使用的芯片以训练为主,属于高性能芯片,由于研发成本较高(如先进制程研发、AI 算法适配),其单价约为1 万美元左右,价格高于行业内多数中低端芯片;预计到 2026 年,随着生产规模的扩大(量产降低单位成本)和研发成本的摊薄(NRE 费用逐步摊销完毕),该芯片的价格可能下降至8000-9000 美元之间,价格降幅约 10%-20%,使产品更具市场竞争力,吸引更多外部客户采购;2027 年,若出货量继续增长,价格可能会进一步小幅下降,但下降幅度会收窄,以平衡成本与利润。

Q:XAI 在未来几年内的芯片出货计划及相关价格情况如何?

A:XAI 的芯片业务起步相对较晚,其出货计划将从 2026 年开始逐步推进,且出货量会随着市场需求增长稳步提升。具体来看,XAI 于 2024 年底才正式启动芯片设计工作,按照芯片研发的常规周期(设计、流片、测试、量产约 1.5-2 年),其首款芯片产品将在 2026 年第三季度开始正式出货;2026 年作为出货元年,预计总出货量约为20 万颗,出货量相对较低,主要用于满足自身 AI 模型训练的需求以及小范围的外部客户测试,同时也需要时间进行产能爬坡和产品优化。到 2027 年,随着芯片产品的性能和稳定性得到市场验证,以及 XAI 自身 AI 业务的拓展(如推出新的大模型、扩大训练规模),芯片的市场需求会逐渐释放,出货量可能增加至50 万颗左右,较 2026 年增长 150%,此时产品将进入快速增长期,外部客户的采购比例也会有所提升。在产品定位和价格方面,XAI 推出的芯片是一款主要用于 AI 训练的小型化芯片,其设计初衷是在保证一定训练性能的前提下,控制芯片的体积和功耗,以适配中小型数据中心或边缘计算场景;凭借这一独特的产品定位和性能优势,该芯片的单价大约为8000 美元,这一价格低于 OpenAI 当前 1 万美元的高性能训练芯片,高于 Google TPU V5P(6000 美元),处于市场中等偏上水平,在目标应用场景中具有一定的价格竞争力,能够满足部分对训练性能有要求但又不想承担过高成本的客户需求。

Q:Apple 是否计划进入 ASIC 领域?目前进展如何?

A:Apple 目前尚未最终确定是否进入 ASIC 领域,其内部仍在围绕 “自主研发” 和 “外部交付” 两种模式进行深入讨论和评估,尚未形成明确的战略决策。如果 Apple 最终选择自主研发 ASIC 芯片,那么开发周期预计需要两到三年时间 ——ASIC 芯片的研发涉及架构设计、制程选择、流片测试、量产优化等多个复杂环节,需要投入大量的人力(如资深芯片设计师、AI 算法工程师)、物力(如研发设备、测试平台)和财力(如流片费用、专利授权费用),因此周期较长;但自主研发的优势在于能够完全匹配 Apple 自身业务(如 iPhone、iPad 的 AI 功能、数据中心的模型训练)的定制化需求,且能掌握核心技术,避免依赖外部供应商。如果 Apple 选择外部交付模式(即委托博通、联发科等第三方厂商进行设计和生产),则开发周期可缩短至一年左右,能够更快地将产品推向市场,同时也能降低自身的研发投入和风险;但外部交付的劣势在于产品的定制化程度可能受限,且需要与第三方厂商共享部分需求信息,存在一定的信息安全和供应链依赖风险。目前,该项目仍处于早期评估阶段,尚未进入实质性的研发或合作洽谈环节,预计将在 2025 年第四季度获得进一步消息 —— 届时 Apple 将综合考虑市场竞争情况(如其他科技巨头在 ASIC 领域的进展)、自身技术实力(如芯片研发团队的规模和能力)、战略规划(如长期 AI 业务的布局)以及成本预算等因素,做出最终决策,确定是否进入 ASIC 领域以及选择何种发展模式。

Q:Anthropic 未来几年内的芯片需求和定价预期是什么?

A:Anthropic 在芯片业务上的布局相对谨慎,其芯片出货计划将从 2026 年底开始逐步推进,且需求规模会随着业务发展缓慢增长。具体来看,Anthropic 计划于 2026 年底实现芯片的少量出货,2026 年作为出货首年,总出货量预计不超过5 万颗,出货量较低的主要原因是其芯片设计仍处于早期阶段,尚未完成最终的性能测试和量产准备,2026 年底的出货主要是小范围的样品交付,用于自身 AI 模型训练的测试和验证,以及向少数核心合作伙伴提供试用,收集反馈以优化产品;同时,Anthropic 的 AI 业务规模目前相对较小,对芯片的需求也较为有限,因此短期内出货量难以大幅增长。到 2027 年,随着芯片设计的最终完成、量产能力的形成以及 Anthropic 自身 AI 业务的扩张(如推出新的 AI 服务、扩大用户规模),芯片的总体需求规模可能接近30 万颗,较 2026 年增长 500%,此时产品将从测试阶段进入正式商用阶段,外部客户的采购需求也会逐步显现。在定价方面,Anthropic 计划推出的芯片价格或与 XAI 的芯片相近,大约为7000 美元,这一价格定位主要参考了市场上同类中高端 AI 训练芯片的价格水平,同时也考虑了自身产品的性能规格(如算力、能效比);不过,由于芯片设计仍处于早期阶段,芯片的实际面积(影响制造成本)、HBM(高带宽内存)使用情况(影响性能和成本)等关键因素尚未最终确定,这些因素都会直接影响芯片的生产成本,因此最终定价需在芯片设计完成后,根据实际成本、市场竞争情况以及利润目标进行调整,以确保产品价格与性能、成本相匹配,同时具备一定的市场竞争力。

Q:Soft bank 是否有开发自有 ASIC 芯片的计划?目前进展如何?

A:Soft bank 确实正在考虑开发自有 ASIC 芯片,其核心动机是减少对英伟达通用 AI 芯片的完全依赖,提高自身在 AI 基础设施供应链中的自主性和灵活性,避免因英伟达芯片产能短缺、价格波动或技术限制而影响自身 AI 业务的发展。目前,该项目仍处于初步讨论阶段,Soft bank 内部正在组建专项团队,对开发自有 ASIC 芯片的可行性进行全面评估和分析,评估的核心内容包括:开发成本(如研发投入、流片费用、量产成本)、技术难度(如是否具备足够的芯片研发人才和技术积累,是否需要与外部技术合作伙伴合作)、市场需求(如自身及外部客户对 ASIC 芯片的需求规模和性能要求)以及投资回报周期(如多久能实现盈利,是否符合长期战略目标)等。由于这些评估工作需要较长时间,且涉及多方面的资源协调,因此具体启动时间可能要等到 2025 年底或 2026 年初 —— 届时 Soft bank 将根据评估结果,决定是否正式启动自有 ASIC 芯片的开发项目。此外,需要注意的是,Soft bank 已经规划好未来数年的英伟达产品供应方案,与英伟达签订了长期采购协议,能够确保短期内自身 AI 业务对芯片的需求得到满足,因此并不急于推进自有 ASIC 芯片的开发计划,有足够的时间进行谨慎决策,避免因仓促启动项目而导致资源浪费或战略失误。如果未来评估结果显示开发自有 ASIC 芯片具有可行性和盈利空间,Soft bank 将正式投入资源推进项目;反之,若评估结果不理想,Soft bank 也可能放弃该计划,继续依赖外部供应商的芯片解决方案。

Q:ASIC 业务预计能为博通贡献多少营收?各主要客户的具体贡献情况如何?

A:ASIC 业务是博通近年来增长最快的业务板块之一,预计将为其贡献可观的营收,且未来增长潜力显著。具体来看,2025 年全年,ASIC 业务预计将为博通贡献约210 亿美元的营收,这一营收规模占博通全年总营收的比例较高,已成为博通业务增长的重要驱动力之一。从各主要客户的具体贡献情况来看,谷歌作为博通 ASIC 业务的最大客户,其贡献约为150 亿美元,占博通 ASIC 业务 2025 年总营收的 71.4%,这一高占比主要源于谷歌 TPU 芯片(尤其是 V5 系列和 V6 系列)的大规模采购,双方长期稳定的合作关系也为营收贡献提供了保障;Meta 作为博通 ASIC 业务的第二大客户,对博通的贡献约为60 亿美元,占总营收的 28.6%,主要来自 Meta 自研的 MTIA 2.0 芯片的订单,随着 Meta ASIC 需求的快速增长,其贡献占比未来还有望提升;OpenAI 由于目前芯片出货量相对较少(2025 年预计不超过 10 万颗),对博通 ASIC 业务的贡献也较少,大约在10 亿美元以下,占总营收的比例不足 5%;此外,还有少量其他客户(如中小型 AI 企业、数据中心运营商)的小额贡献,共同构成了博通 ASIC 业务的营收体系,但这些客户的贡献占比极低,对整体营收影响较小。到 2026 年,随着市场需求的进一步扩大,博通 ASIC 业务预计营收将增长至250 亿至 260 亿美元,较 2025 年增长约 19%-24%。从客户贡献变化来看,谷歌方面的营收贡献预计变化不大,其芯片出货量预计仅有 10% 左右的增幅,因此营收增长相对平稳;而 Meta 和 OpenAI 则预计会有显著增长 ——Meta 因 ASIC 芯片需求每年增长 30%-40%,出货量大幅提升,将带动对博通的营收贡献增长;OpenAI 则因 2026 年芯片出货量预计达到 50 万颗,较 2025 年增长 400%,其对博通的营收贡献也将大幅提升,进一步推动博通 ASIC 业务的发展。

Q:关于 Jericho 系列及 Tomahawk 系列芯片,2025 年的各型号出货量预期分别是多少?

A:Jericho 系列和 Tomahawk 系列是博通在网络芯片领域的核心产品线,2025 年各型号的出货量预期与各自的应用场景需求高度匹配,呈现出差异化的增长态势。具体来看,Jericho 系列芯片主要定位于 AI 数据中心,用于满足 AI 数据中心高带宽、低延迟的数据传输需求,凭借其高性能和稳定性,预计 2025 年出货量约为20 万片,这一出货量虽低于 Tomahawk 系列,但符合 AI 数据中心当前的建设规模,且随着 AI 数据中心的快速发展,未来增长潜力较大。Tomahawk 系列作为博通的主流网络芯片系列,涵盖多个型号,各型号出货量差异明显:其中,Tomahawk 4 主要应用于传统电信运营商的网络升级(如从 100G/200G 网络升级至 400G 网络),由于全球电信运营商网络升级需求旺盛,市场需求较大,预计 2025 年出货量达到75 万片,是 Tomahawk 系列中出货量最高的型号;Tomahawk 5 则主要面向全球范围内(包括美国和中国)的中高端数据中心,用于支持 800G 网络的部署,随着 800G 网络技术的逐步普及,其市场前景广阔,预计 2025 年出货35 万片,出货量仅次于 Tomahawk 4;Tomahawk 6 作为 2025 年新推出的产品,主要定位于高端数据中心的 1.6T 网络需求,目前仅处于前期部署阶段,主要用于市场测试和客户反馈收集,因此预计 2025 年仅有几千片的出货规模,出货量较低;此外,Tomahawk Ultra(基于 Tomahawk 5 设计,主要用于与英伟达 NVLink 竞争,满足 AI 数据中心的高速互联需求)计划在 2025 年少量供应,总计约10 万片,主要用于满足部分高端客户对高性能互联芯片的需求,由于是针对性产品,出货量相对有限。

Q:各型号芯片在 2025 年的定价情况如何?

A:2025 年博通 Jericho 系列和 Tomahawk 系列各型号芯片的定价,与其产品定位、性能规格、应用场景以及市场竞争情况密切相关,呈现出明显的分层特征。具体来看,Jericho 系列芯片作为面向 AI 数据中心的高性能产品,每颗价格约为2500 美元,这一价格定位主要考虑到该系列芯片需要满足 AI 数据中心高带宽、低延迟的传输需求,技术复杂度较高,同时也参考了同类 AI 数据中心网络芯片的市场价格,在确保盈利的同时,保持了一定的市场竞争力。Tomahawk 4 芯片由于广泛应用于传统电信运营商的网络升级(如 100G/200G 至 400G 升级),市场需求量大且竞争相对激烈,大规模的生产和销售使得单位成本得到有效控制,因此其每颗价格相对较为亲民,约为1500 美元,这一价格能够更好地满足电信运营商对成本控制的需求,推动其大规模采购。Tomahawk 5 芯片相较于 Tomahawk 4,性能有显著提升(如支持 800G 网络),技术复杂度更高,且面向的中高端数据中心客户对价格的敏感度相对较低,因此其每颗价格调整后在4000 至 4500 美元之间,这一价格区间既反映了其性能提升带来的价值增长,也考虑了市场对 800G 芯片的接受程度,是博通综合权衡后的结果。Tomahawk 6 芯片作为 2025 年新推出的高端产品,主要支持 1.6T 网络,目前定价尚未完全确定,但结合其高端定位、先进技术以及市场上同类 1.6T 芯片的价格水平,预估每颗价格在8000 美元左右,这一高价主要面向对网络性能有极致需求的高端数据中心客户(如大型云服务商、AI 巨头),普通客户短期内难以大规模采购,因此定价较高也符合其市场定位。

Q:各型号芯片在 2026 年的出货量预期分别是多少?

A:2026 年博通 Jericho 系列和 Tomahawk 系列各型号芯片的出货量预期将延续 2025 年的增长趋势,且部分型号的增长幅度显著,主要得益于 AI 数据中心和网络升级需求的持续释放。具体来看,Jericho 系列芯片由于 AI 数据中心建设规模的快速扩大,对高性能网络芯片的需求激增,预计 2026 年出货量同比增长超过50% ,总出货量超过30 万片(2025 年约 20 万片),这一增长速度在所有型号中最快,反映出 AI 数据中心已成为博通网络芯片业务的核心增长引擎。Tomahawk 4 芯片主要应用于传统电信运营商的网络升级,2025 年已实现 75 万片的高出货量,2026 年由于全球电信运营商 400G 网络升级已进入中后期,市场需求相对稳定,因此其出货量基本与 2025 年持平,总体规模维持在75 万至 80 万片之间,不会出现大幅增长或下降。Tomahawk 5 芯片受全球 800G 交换机需求强劲拉动 ——2026 年越来越多的数据中心开始部署 800G 网络,对 800G 芯片的需求大幅增加,因此其 2026 年出货量总体规模将增至50 万片左右(2025 年约 35 万片),增长幅度约 43%,成为 Tomahawk 系列中增长较快的型号。Tomahawk 6 芯片作为 2025 年新推出的产品,2026 年将进入部署推进阶段,随着客户测试完成和量产能力提升,其出货量将从 2025 年的几千片大幅增长至约5 万片,虽然绝对出货量仍较低,但增长倍数显著,为后续进一步扩大市场份额奠定基础。此外,Tomahawk Ultra 芯片由于 AI 数据中心对高速互联需求的增长,2026 年出货量预计也将有所提升,但具体数据尚未公布,不过整体仍将保持少量供应的态势,主要服务于高端客户。

Q:关于 Tomahawk 6,该产品是在何时正式推出市场?

A:Tomahawk 6 于2025 年 7 月正式推出市场,标志着博通在高端网络芯片领域(支持 1.6T 网络)的布局进入实质性阶段。不过,由于 Tomahawk 6 是支持 1.6T 网络的新一代产品,技术复杂度较高,且需要与客户的交换机设备进行深度适配,因此推出市场后并未立即进入大规模量产和销售阶段,而是处于前期部署阶段。在这一阶段,博通的核心工作包括两方面:一方面,协助客户完成交换机操作系统的测试与适配 ——1.6T 网络技术对操作系统的兼容性、稳定性要求极高,需要博通与客户(如交换机厂商、云服务商)共同进行大量测试,确保 Tomahawk 6 芯片能够与客户的硬件设备、软件系统无缝对接;另一方面,进行小范围的客户交付与反馈收集 —— 目前博通仅少量供给 Meta、谷歌等核心大客户,用于其数据中心的测试环境,通过这些大客户的实际使用测试,收集性能、稳定性、兼容性等方面的反馈,进而对芯片进行进一步优化,解决潜在的技术问题。这一前期部署阶段通常会持续 3-6 个月,预计到 2025 年底或 2026 年初,Tomahawk 6 将完成前期测试与优化,进入大规模量产和市场推广阶段,届时出货量将显著提升,成为博通在高端网络芯片市场的重要竞争力。

Q:如何评估 Jericho 和 Tomahawk 4/5 在每个季度的分配比例,是否有合理的计算方法?

A:由于博通未直接公布 Jericho 和 Tomahawk 4/5 芯片的季度出货数据,因此评估其季度分配比例需要借助相关业务的关联性数据进行间接推算,其中最核心的参考依据是 ASIC 芯片的季度出货数据。从行业规律来看,数据中心的部署通常是整体性的,即服务器部署完成后,需要相应配置交换机(而 Jericho 和 Tomahawk 4/5 是交换机的核心芯片),因此交换机的出货量与 ASIC 芯片的出货量(服务器的核心计算芯片)通常呈现较强的关联性 ——ASIC 芯片出货量增长时,交换机芯片的出货量也会随之增长,且时间上略有滞后(服务器部署后再部署交换机)。虽然目前没有详细的历史数据来精确验证这一关联性,但从 2025 年的市场趋势来看,下半年数据中心的部署需求显著高于上半年(如 Google TPU、Meta MTIA 2.0 等 ASIC 芯片的下半年出货占比均为 60%),因此可以推断,作为配套的交换机芯片,Jericho 和 Tomahawk 4/5 在 2025 年下半年的出货量也将显著高于上半年。基于这一推断,可以按照4:6 的比例对全年交换机芯片出货量进行大致推算,即上半年出货量占全年的 40%,下半年占 60%,进而评估 Jericho 和 Tomahawk 4/5 在每个季度的分配比例 —— 例如,若 Jericho 2025 年全年出货 20 万片,则上半年约出货 8 万片(20 万片 ×40%),下半年约出货 12 万片(20 万片 ×60%);再结合季度间的平稳增长趋势,可进一步将上半年出货量按 1:1.1 的比例分配到第一、第二季度(如第一季度约 3.8 万片,第二季度约 4.2 万片),下半年按 1:1.5 的比例分配到第三、第四季度(如第三季度约 4.8 万片,第四季度约 7.2 万片)。需要注意的是,这一计算方法属于粗略估算,实际季度分配比例可能会因客户订单节奏、产能供应情况或突发需求变化而有所调整,但整体仍能为博通的生产计划、库存管理以及客户订单响应提供合理的参考依据。

Q:UAlink 标准的发展背景、技术特点及其与 NVLink 的竞争情况如何?

A:UAlink 标准是在 AI 数据中心对高速互联需求日益增长、且现有以太网技术存在瓶颈的背景下诞生的,其发展背景与 NVLink 的市场垄断和以太网的技术局限密切相关。具体来看,随着 AI 模型规模的扩大(如千亿参数、万亿参数大模型),数据中心内多芯片间的数据传输需求激增,对带宽和延迟提出了极高要求;而英伟达的 NVLink 作为当前主流的高速互联技术,凭借高带宽、低延迟的优势,几乎垄断了高端 AI 数据中心的互联市场,这使得其他芯片厂商和数据中心客户面临供应链依赖风险;同时,传统以太网因采用数据包传输形式,延迟较大(通常在几百纳秒级别),无法满足 AI 计算对低延迟的需求,因此博通等十余家公司于 2023 年共同发起了 UAlink 标准,旨在对标英伟达 NVLink,打破其垄断,解决以太网在延迟和带宽上的不足,参与企业包括 AMD、Cisco 以及中国的锐捷等,形成了多元化的生态联盟。

在技术特点方面,UAlink 标准的核心目标是实现与 NVLink 相近的性能,同时保持以太网的兼容性和灵活性。从已公布的信息来看,NVLink 相比传统 PCIE 接口,其带宽高约四倍,延迟可低至100 纳秒,能够满足多芯片协同训练的需求;而 UAlink 1.0 版本已于 2024 年发布,但其对应的实际商用芯片预计要到 2027 年才能推出,主要原因是高速互联芯片的研发难度高,需要解决信号完整性、功耗控制等多个技术难题。为了在 2027 年前填补市场需求空白,博通推出了过渡方案:例如,基于 Tomahawk Archer 5.0 设计的产品可实现200 纳秒以下的延迟,虽高于 NVLink,但已显著低于传统以太网;而计划在 2026 年推出的基于 Tomahawk 6 的新一代 2.0 产品,预计可将延迟降至100 纳秒左右,与 NVLink 7.0 的性能接近,这些过渡性产品在 UAlink 生态体系成熟前,能够为客户提供替代选择,缓解对 NVLink 的依赖。

在与 NVLink 的竞争情况方面,UAlink 目前仍处于追赶阶段,短期内难以完全替代 NVLink,但长期有望形成竞争格局。NVLink 的优势在于生态成熟 —— 英伟达已构建了从芯片、互联到软件的完整生态,客户迁移成本高;而 UAlink 的优势在于开放性和兼容性,其由多家厂商共同推动,不存在单一厂商垄断的问题,且能与现有以太网生态兼容,降低客户的部署成本。不过,UAlink 面临两大挑战:一是商用芯片推出时间较晚(2027 年),在这之前 NVLink 可能会进一步升级,扩大性能优势;二是生态建设需要时间,需要吸引更多芯片厂商、设备厂商和软件厂商参与,才能形成与 NVLink 抗衡的生态体系。总体来看,UAlink 的推出为市场提供了新的选择,有助于打破 NVLink 的垄断,但未来与 NVLink 的竞争将是长期的,取决于技术性能、生态成熟度和客户接受度等多方面因素。

Q:非 AI 相关网络业务与 AI 相关业务相比,其增长曲线如何?

A:非 AI 相关网络业务与 AI 相关业务的增长曲线存在显著差异,AI 相关业务呈现 “高速增长” 态势,而非 AI 相关网络业务则呈现 “缓慢增长” 态势,二者的增速差距明显,反映出当前市场对 AI 技术的高度重视和资源倾斜。

具体来看,AI 相关业务(主要包括 AI 数据中心的芯片、互联、存储等业务,如博通的 ASIC 芯片、Jericho 系列网络芯片、光芯片,Google 的 TPU 等)的增速极为迅猛,目前行业平均增速约为30% 至 40% ,部分头部企业(如博通、英伟达)的 AI 相关业务增速甚至超过 50%。这一高速增长的核心驱动因素是 AI 技术在全球范围内的快速普及 —— 从互联网巨头(如谷歌、Meta)到传统企业(如金融、制造、医疗行业的企业),都在加大对 AI 基础设施的投入,以支持 AI 模型的训练、推理和应用部署,这直接带动了对 AI 芯片、高速互联设备、高性能存储等产品的需求激增;同时,AI 技术的持续创新(如大模型规模扩大、多模态 AI 发展)也推动了现有 AI 基础设施的升级换代,进一步加速了 AI 相关业务的增长,使得 AI 相关业务成为整个科技行业的核心增长引擎。

而非 AI 相关网络业务(主要包括传统电信及企业级网络升级、消费类无线业务等,如博通的 Tomahawk 4 芯片、蓝牙芯片、Wi-Fi 芯片,传统电信运营商的 4G/5G 网络维护等)的增速则相对缓慢,预计行业平均增速仅为10% 至 15% ,部分成熟领域(如传统电信网络升级)的增速甚至低于 10%。这一缓慢增长的原因主要有两方面:一方面,非 AI 相关网络业务的市场已进入成熟期,需求增长主要依赖存量设备的更新换代和增量市场的小幅扩张(如新兴市场的电信网络建设),而非技术创新驱动的爆发式需求,因此增长空间有限;另一方面,非 AI 相关网络业务面临激烈的市场竞争,众多厂商(如联发科、高通、华为)在该领域布局,通过价格战、同质化竞争抢占市场份额,导致企业难以通过提价或扩大销量实现高速增长,同时也限制了利润空间,进一步制约了业务的扩张速度。

总体来看,AI 相关业务具有更大的发展潜力和市场空间,是未来几年科技行业增长的核心动力;而非 AI 相关网络业务则将维持平稳增长,作为企业营收的 “基本盘”,为企业提供稳定的现金流。对于博通这类同时布局两大业务的企业而言,需要加大在 AI 领域的业务布局和研发投入,以顺应市场发展趋势,同时也要维护好非 AI 相关网络业务的稳定,实现 “高速增长业务” 与 “稳定业务” 的协同发展。