转发供参考,不构成投资建议
要点
- GPU/ASIC和光模块配⽐差异及原因;
- 集群规模和⽹络架构发展趋势对光模块需求的影响;
- 26年800G/1.6T光模块需求拆分
以下是专家观点:
ASIC vs GPU和光模块配⽐的差异问题,能否从原理上解释⼀下?
ASIC和GPU理论来讲没有太⼤区别,都是AI计算芯⽚,然后光模块会跟芯⽚配套,将数据传输出去,主要区别还是⽹络架构上的区别。以英伟达为例,其GPU采⽤了Fat-Tree⽹络架构。这种架构具有分层级的特点,从每个GPU组成的服务器开始,向上跟机架交换机、叶交换机、脊交换机,甚⾄更上层的core交换机,层层堆叠。这种互联⽅式具备较强的扩展性,例如从⼀个万卡集群扩展到三万卡或五万卡集群,只需增加相应数量的交换机即可实现。 具体到硬件配⽐⽅⾯,以H100 Hopper芯⽚为例,其搭配800G光模块时,通常⽐例为1:2.5左右。⽽最新出货的Blackwell系列芯⽚早期仍然搭配400G⽹卡,与Hopper芯⽚类似,选⽤的是CX7 400G⽹卡,因此其800G光模块的使⽤量并未发⽣变化。因此,在2024年和2025年期间,英伟达GPU通常保持⼀个GPU对应约2.5个800G光模块的配置⽐例。明年(2026年),英伟达B300和GB300系列GPU在对外互联时将全⾯采⽤800G⽹卡,⽽⾮此前部分使⽤400G、部分使⽤800G的混合模式。这⼀升级直接导致每个GPU所需800G光模块数量从过去平均2.5个增加到5个。核⼼原因在于算⼒提升后,单卡对外带宽由400G提升⾄800G,从⽽需要更多光模块以⽀持更⾼的数据传输需求。
可不可以理解成如果是传统的B100/B200,GPU:光模块基本上是1:5,只是原来主要是2.5个400G和2.5个800G,从数量上看还是1:5,明年会升级为5个800G?
可以这么理解。过去⽹卡端⽤的400G所以它会插⼀些400G,部分⽤800G,现在全系标配800G。
所以1:5只是提升了从400G到800G的占⽐,到未来可能是2-3个1.6T光模块,2-3个800G光模块?
是的,因为芯⽚、⽹卡及光模块都是同步升级的。总体来看,英伟达GPU出货总量并未显著增⻓,其价值量增⻓主要来源于单卡算⼒的提升。
集群规模扩⼤是否会导致光模块配⽐⽐例进⼀步提⾼?例如,从当前10万~20万张GPU集群中的1:5⽐例,到更⼤规模集群中的更⾼⽐例?
集群规模扩⼤确实会导致光模块配⽐⽐例提⾼。早期的万卡级的集群,基本是1:2.5的配⽐甚⾄1:2。在当前10万~20万张GPU集群中,1:5是⼀个典型标配,即每张GPU对应约5个光模块。然⽽,当集群规模达到30万或50万张时,这⼀⽐例可能上升⾄1:8;⽽在百万级别集群中,不排除每张GPU需要10个光模块的情况。这种变化源于⽹络层级数随集群规模增加⽽不断扩展。例如,⽬前两层或三层交换机架构已⽆法满⾜20万以上⼤规模集群需求,需要引⼊四层甚⾄五层交换机,从⽽增加了整体⽹络复杂度和对光模块数量的需求。
去年(2024年)ASIC和光模块的配⽐如何?
ASIC算⼒去年也⽐较弱。像国内华为、寒武纪也属于ASIC,但还是⽤400G光模块,800G都没咋⽤。海外像⾕歌和AWS的Trainium会少量使⽤800G。⾕歌采⽤⾃研TPU结合OCS交换机组⽹,整体800G光模块的配⽐在1:2.5到1:3之间,略多于英伟达,因为⾕歌scale-up⽹络端部分已采⽤了基于光连接⽅式,⽽英伟达⽅案中,仅scale-out⽹络端即GPU通过⽹卡互联使⽤了800G光模块,⽽机柜内互联仍以铜缆或PCB为主。
英伟达B系列是⽤2.5个800G和2.5个400G,对应总量是1:5,那⾕歌呢?
⾕歌基本上是1:3个800G,400G的话⼤概在1:2。总数量⼤概也是1:5,只是800G的占⽐略⾼⼀点。
去年(2024年)⾕歌出货120万颗TPU,去年⾕歌光模块的需求如何?
⾕歌去年采购了300多万只800G光模块。
按照1:3的⽐例,120万颗TPU对应360万只800G光模块,那⾕歌去年有采购英伟达的GPU吗?
⾕歌去年⼤概采购了40多万GPU,按照1:2.5的⽐例,也需要100万只800G。但当时其实是英伟达去年采购了500多万只800G,英伟达采购的800G⼀部分是跟其GPU服务器绑定卖给终端CSP客户的。像微软、⾕歌、Mata,去年观察到确实很⼤⼀部分都是从英伟达的渠道出货的光模块。
明年(2026年)全球市场预计将有4,000万⽀800G光模块出货,这⼀预测基于哪些数据推导得出?
预测明年(2026年)全球市场将有4,000万⽀800G光模块出货,是基于AI⼚商、CSP⼚商以及芯⽚供应商如英伟达等提供的数据汇总得出的结果。假设明年ASIC芯⽚出货量达到500多万颗,同时考虑到600万颗左右的英伟达GPU,按照这个需求去倒推整个市场出货4000万只800G问题不⼤。
⽐如英伟达600万颗GPU,按照1:5的⽐例,就是需要3000万只800G光模块,可以这样理解吗?
如果简单测算可以这样,但是实际情况的话,它有⼀部分还升级到1.6T,所以其实英伟达GPU是⽤不到3000万只光模块的,但是现在有⼀些配⽐,就像Meta的ASIC配⽐甚⾄超过了1:5, 甚⾄达到这种1:8,最多甚⾄达到1:12。这种配⽐远超当前这种普通架构的光模块配⽐。所以Meta明年是800G最⼤的采购⽅,因为它的ASIC和光模块配⽐明显⾼于其他家。
像⾕歌是对应3个800G和2个400G,Meta是8个全部都是800G吗?
是的。因为公司跟Meta做了⼀些交流,Meta要求公司明年备货500万只800G,预计Meta明年总需求可能会达到1200~1400万只。⼀⽅⾯是由于其ASIC明年开始放量,Meta的ASIC明年可能在120万颗左右。100多万颗ASIC为什么需要上千万只的光模块呢?因为Meta有计划会导⼊scale-up全光⽹络。⽬前市场上这样做的⼚商还不多,英伟达之前尝试过,在2022年的时候尝试过搭建NVL256集群,也就是GH200的256,那个时候真的光模块的配⽐,其中H100芯⽚与800G光模块的配⽐为1:12,包括1:9⽤于scale up⽹络和1:3⽤于scale out⽹络,但因成本过⾼未实现量产。第⼆个尝试做这种全光⽹络的就是菊花厂,菊花厂在2025年上半年推出CM384系统,其910C芯⽚与400G光模块的配⽐达到1:18。第三家会尝试做这种全光⽹络的就是Meta,Meta计划于2026年推出基于MTIA V1和V1.5版本ASIC的新型全光⽹络,其带宽规划中scale up组⽹⽐例要达到1:8,scale out可能达到1:4,总体极端情况下可达1:12,但1:8是保底的。如果按照这样来算的话,Meta上千万只800G光模块的需求才⽐较确定,公司才敢去备货。
⾕歌现在1个TPU还是对应3个800G+2个400G,明年会不会升级成全部800G的⽹络?
⽬前来看,⾕歌400G还在采,但400G的量确实减少了。⾕歌TPU也在升级,现在⼤量买的还是TPU v5、v6,明年会升到v6、v7,TPU升级之后,理论上来讲400G可能就不怎么⽤了。 因为⽬前来看⾕歌的400G采购需求在明显下滑,重点还是在采购800G。明年两个版本都要上,⽐如v7可能完全是⽤800G,⽽v6有可能确实还是有部分是400G,但具体配⽐情况如何还不清楚。
v7全部⽤800G的话,可以理解成从原来的3个800G变成5个800G光模块?
是的,甚⾄可能达到6-7个,这取决于其⽹络层数和集群规模。明年Meta要搞百万卡集群,OpenAI也要搞,将来⾕歌微软绝对也会往更⼤集群去⾛,⽤来做⼤模型训练等,可以预⻅的是将来的⽹络会越来越多层,光模块配⽐越来越⾼。
AWS的ASIC芯⽚的配⽐如何?
AWS⽐较特殊,其早期ASIC其实是配400G的,因为觉得800G价格有点贵,所以AWS去年400G采购量是全球最⼤的,给新易盛带来很⼤的机会,所以新易盛去年业绩⾮常好。⽽今年AWS也开始升级800G,但是它400G的采购量仍然较⼤。所以 AWS看到其实配⽐800G不会像⾕歌和英伟达那么⾼。⽬前来看,⾄少当前的TR2配⽐800G,⼤概在1:1.5左右,但是400G配⽐在4个以上。今年底到明年初,⼤概明年⼀季度,AWS会推出下⼀代TR3。按照明年AWS的采购计划,明年有450万只以上的800G,这⾥⾯肯定有⼤量是配合TR3去组⽹的。所以它后续800G的配⽐肯定⼀直停留在当前的1:1.5,后续⼤概率还会提升到⽐如说1:3或1:4。
是否可以理解成明年(2026年)光模块出货量的翻倍增⻓,其核⼼驱动因素是否主要来源于英伟达算⼒升级(从1:2.5到1:5)带来的⾏业空间扩展?ASIC的起量对光模块需求增⻓的贡献程度并没有那么⼤?
这肯定是⼀个原因,但是ASIC的原因也不能忽略。因为单靠英伟达不能直接把800G从2000万只提升到4000万只,因为英伟达还有部分升级到1.6T。⽬前来看,英伟达GPU配套的800G光模块需求预计约为2000万只,剩下的2000万只是ASIC带来的增量,所以这两个因素都不能忽略。Meta的ASIC明年会贡献约1000万只800G光模块的需求,其余400万只是配套英伟达GPU的。⾕歌明年有250-300万颗TPU,按照1:3来算,⼤概也需要七⼋百万只800G光模块。
展望后年(2027年),光模块⾏业的主要增⻓驱动是什么?⽐如说英伟达的配置⽐例从1:2.5到1.5左右,2027年的话,这个⽐例是不是会随着集群规模的扩⼤,从1:5再往上提升?
前⾯讲过百万卡集群极端情况达到1:10,也就是继续往上提升完全是可⾏的,不是说1:5就到顶,只是具体什么时候从1:5提升到1:8,再提升到1:10,取决于各家⾃⼰的⽹络升级节奏,但趋势上确实还可以提升。
像⾕歌这种ASIC芯⽚,也有可能随着算⼒的提升,从现在1:3提升到1:5或1:6是吗?
按道理是这样的。然⽽,从⻓期来看,⼀些颠覆性技术如OCS全光交换机和CPO光电共封装可能会改变现有⽹络架构,对光模块潜在增⻓天花板产⽣影响。只是⽬前在可⻅的、最近的这两三年内,光模块凭借成本, 产业链的成熟度,仍然是⾸选。所以短期内(两三年内)去算光模块的增⻓空间,是可以按照这种配⽐持续提升的逻辑去算的,但是⻓期来讲不排除有⼀些颠覆性的技术会改变光模块的这种配⽐关系。
新易盛未来市场增⻓逻辑是什么?其主要增量来源及竞争策略如何体现?
新易盛未来市场增⻓逻辑主要依赖Meta和英伟达带来的⼤幅增量。在过去两年,新易盛的核⼼客户包括AWS,其去年(2024年)以400G产品为主,今年(2025年)转向800G产品。明年(2026年),新易盛有望迎来⾼速增⻓,核⼼增量来⾃Meta和英伟达采购订单。此外,新易盛并未直接与旭创竞争⾼端产品如1.6T,⽽是专注于主流产品如800G,通过产能扩张抢占更多市场份额。
⽬前是三供,因为其800G产能有限,后续不排除升级到⼆供。现在是Meta让头部三家⼚商,包括旭创、Coherent、新易盛均按照500万只产能准备,但实际下单数量需根据下半年招标结果以及各供应商产能、价格、性能综合评价决定。⽬前尚⽆明确承诺。但为了争取订单,各⼚商均需提前扩充产能。
新易盛在去年四季度获得的英伟达认证,并进⼊其供应体系。但由于总产能限制,今年仅向英伟达提供五六⼗万只左右。主要也是因为新易盛⽬前还是优先保证AWS的供应,AWS今年对新易盛的采购量达到了150万只,本身新易盛今年800G总产能估计在250万只左右,所以旭创和coherent⽬前还是英伟达的主供。也就是说在英伟达的体系⾥⾯,今年英伟达⼤概是450~470万只的总采购量,新易盛⼤概占10%左右的份额。
今年(2025年)英伟达GPU的出货量基本上也有400多万颗,按照1:2.5来算,800G的需求量应该有1000万只,为什么只有400多万只?
因为去年的时候英伟达很多GPU还是要跟光模块绑定出货,所以很多光模块都是通过英伟达出去的,现在不⼀样了,今年⼤客户都⾃⼰组建⽹络,不想被英伟达绑定,所以只采购英伟达的服务器,光模块⾃⼰招标购买,所以总需求没变,但是需求是分散的,不再像过去⼀样都集中在英伟达。
明年(2026年)英伟达800G光模块的需求量⼤概是多少?
明年估计⼤概在500多万只,没有太⼤增⻓。1.6T光模块成为主要增⻓点。英伟达计划在2026年销售约500万只1.6T光模块,并继续采⽤绑定销售模式。所以在英伟达的系统⾥⾯,⽬前像新易盛并不能拿到太⾼的份额了,⾸先本身英伟达800G需求增量有限,供应商也有3-4家,所以新易盛进⼊的话可能会保持10-15%的份额,后续像1.6T如果新易盛明年有机会能做进去,可能会拿到不错的份额。但⽬前中际旭创卡位已经成为英伟达在1.6T的⼀供,所以中际旭创在1.6T上确实更强。如果明年1.6T⽐如旭创产能不够的话,溢出的订单⼤概率会是新易盛接触,那么新易盛的业绩就会超预期。
光模块速率升级与⽹卡升级之间存在何种关联?⽹卡性能限制会对算⼒利⽤率产⽣哪些影响?
光模块速率升级通常伴随⽹卡性能升级。如果⽹卡未同步升级,将限制连接速率,从⽽降低芯⽚算⼒利⽤效率。例如,在单卡算⼒达到1000TFLOPS时,如果连接速率受限,有效算⼒可能仅能发挥30%,即300GFLOPS。这种情况直接影响AI数据中⼼整体计算效率,⽬前⾏业平均计算效率(MFU指标)仅约为40%。在⼤模型训练和推理中,由于采⽤并⾏计算模式,GPU需要从其他卡获取数据,因此⽹卡速率直接影响数据传输时间。如果⽹卡速率较慢,会导致GPU更多时间处于等待状态,从⽽降低整体计算效率。例如,当2/3的时间⽤于等待时,实际计算效率仅为33%。⽬前(2025年),⽹卡技术相对算⼒进步稍有滞后,但滞后时间不超过半年。例如今年上半年,⼤量英伟达BlackwellGPU仍配备CX7 400G⽹卡,⽽下半年随着CX8技术成熟,将标配CX8 800G⽹卡,实现速率翻倍。
NVLink与⽹卡在底层协议、互联⽅式及性能上的差异是什么?
NVLink是英伟达⾃研的⾼速直连协议,⽤于GPU之间的直接互联,⽽⽹卡通常运⾏以太⽹或InfiniBand协议,⽤于更⼴泛的集群互联。两者底层均基于SerDes(串⾏器/解串器)技术,⽬前最新版本如NVLink 5.0和CX8均采⽤200G per lane SerDes。
是否可以理解成英伟达机柜的⽅案⾥,GPU连出来的是NVLink,NVLink匹配的是光模块的速率;ASIC匹配的是CX7这种⽹卡,然后⽹卡匹配的是光模块的速率?
NVLink主要⽤于scale-up⽹络,即通过⾼速直连将多个GPU组成⼀个逻辑单元,共享内存并协同⼯作,其带宽极⾼,例如Blackwell GPU的NVLink双向带宽为1.8TB/s(即单向7200Gbps)。外部scale-out⽹络通过⽹卡连接,每个GPU对外连接时需独⽴使⽤⼀张800G CX8⽹卡,这种设计避免了共享资源可能导致的数据冲突和延迟问题,但其带宽与NVLink相⽐存在显著差距(约9:1)。
英伟达机柜内部的卡间互联采⽤NVLink,不需要⽤CX7这种⽹卡,⽽ASIC在卡之间的互联还⽤了⼀道光互联,这是造成ASIC⽤光模块更多的底层原因吗?
是的,因为ASIC之间的互联没有NVLink这种技术,所以有部分⼚商如⾕歌的TPU采⽤OCS交换机,会⽤到⼀部分的800G光模块去组scale up⽹络,然后还有Meta的全光⽹络。
英伟达⼀个GPU对应5个光模块,为什么⾕歌的TPU也是1:5,亚⻢逊还不到1:5?
⼀是亚⻢逊芯⽚算⼒相对弱⼀点,过去主要配400G,算800G配⽐就低;⽽是亚⻢逊现在在⼤量购买AEC,AEC对光模块有⼀定的替代,但只能在短距离替代,亚⻢逊更追求降本⽽⾮绝对的性能导向。
当前市场上主流的GPU集群⽹络拓扑架构有哪些?它们各⾃的特点和适⽤场景是什么?
当前市场上主流的GPU集群⽹络拓扑架构包括英伟达的胖树(Fat Tree)架构和⾕歌⾃研的3D Torus环⾯拓扑。胖树架构是⼀种层级堆叠式互联⽅式,具有良好的扩展性和成熟稳定性,适⽤于⼤规模集群环境。其特点是随着集群规模增⼤,层级数量和配⽐也相应增加,从⽽实现⾼效互联。 ⾕歌采⽤的是3DTorus环⾯拓扑,并结合其⾃研的OCS交换机。这种架构在特定芯⽚互联范围内能够显著缩短连接路径,降低时延,但其设计⾼度依赖于算法与芯⽚设计的⼀体化,是⼀种相对封闭且难以直接借⽤的解决⽅案。此外,AWS也有⾃⼰的⽹络架构,其核⼼仍然基于类似英伟达胖树架构的思路,通过扩⼤规模来提升性能。未来可能出现的新型⽹络拓扑包括Dragonfly(蜻蜓)架构等,但⽬前尚处于探索阶段。总体来看,在当前阶段,胖树仍是市场上的主流选择。
Meta在GPU集群⽹络拓扑⽅⾯采⽤了哪些技术?是否有新的突破?
Meta⽬前在GPU集群⽹络拓扑⽅⾯没有公开具体细节。从现有信息来看,其scale-up⽅案可能采⽤全光互联,⽽scale-out⽅案则可能基于Non-blockingClos架构,与英伟达胖树架构并⽆本质区别。相⽐之下,⾕歌在新型⽹络拓扑研究⽅⾯已有多年积累并取得⼀定成果,但短期内其他⼚商推出可⾏的新型架构的可能性较低,即使未来出现新突破,⼤概率仍由英伟达率先提出。
ASIC芯⽚单卡算⼒通常弱于GPU,同时其芯⽚本身集成度较低,因此需要通过⾼效⽹络将多个ASIC芯⽚连接起来,以弥补单卡性能不⾜,从⽽实现整体性能接近甚⾄超越单个⾼性能GPU。这种⽅式虽然增加了⽹络成本,但整体服务器成本中,算⼒卡占⽐约为60%-70%,⽽光模块仅占5%左右、交换机约占8%,两者合计约为10%-15%。因此,即使在⽹络部分加倍投资,其成本增幅相对于算⼒卡⽽⾔依然较⼩,这也是菊花厂和Meta等⼚商更倾向于增加光模块和交换机投⼊的重要原因。
从训练到推理场景转变时,对数据传输需求是否会显著变化?推理场景是否天然需要更多的数据传输?
推理场景确实涉及⼤量数据传输,这是⼀个事实,因为未来80%的流量预计将来⾃AI推理,⽽训练所占⽐例逐步下降⾄20%。然⽽,对于同⼀规模(如1万张卡)的算⼒训练集群与推理集群⽽⾔,其具体数据传输需求是否存在显著差异尚不确定。从市场趋势看,⼤模型逐渐成熟后,⽤于推理任务的算⼒资源⽐例将显著增加,例如英伟达每年出货600万张卡,其中400万张甚⾄更多可能⽤于推理,仅200万张⽤于训练。但如果分别建⽴100万张卡规模的数据中⼼进⾏训练或推理,其具体对⽹络需求量孰⼤孰⼩,⽬前难以明确回答。
推理任务是否需要建设⼤规模计算集群?在什么情况下推理任务可能需要更⼤的算⼒规模?
推理任务通常不需要建设超⼤规模的计算集群。在⽤户数量较少的情况下,⼏百张GPU卡即可实现⾼效推理。然⽽,为了提升推理效率,近年来出现了采⽤⾼带宽域(HBD)或⼏百张卡级别的scale-up⽹络架构,这种⽅式可以显著提⾼推理性能。但即便如此,单纯为了推理⽽建设20万⾄30万张卡的⼤型集群可能并⾮必要。部分算⼒中⼼之所以建设这种规模的集群,是因为其设计为训练与推理⼀体化。⼤模型训练阶段可能持续数⽉,⽽后续⻓时间内主要⽤于数据收集和模型推理,因此这些⼤规模集群也会被⽤于推理任务。
⼤型算⼒中⼼如何实现计算资源的扩展?是否需要重新设计⽹络架构?
⼤型算⼒中⼼在扩展计算资源时,可以通过增加设备并将其连接到现有系统中实现。例如,从10万张卡扩展到20万张卡,只需在原有10万张卡旁边新增10万张卡,并通过预先规划好的⽹络拓扑架构将它们连接起来即可。这种可扩展性依赖于初始⽹络架构设计中的预留能⼒,例如增加交换机和光模块以⽀持更⾼层次的互联。
⼀个典型的ASIC集群,ASIC出来的信号⾸先连到⽹卡,在机柜内部通过电连接的⽅式,⽐如亚⻢逊通过AEC把各个卡之间连接起来,整个机柜出来才是光连接是吗?
不是的。在单个机柜内部,⼏⼗张GPU之间通常通过铜缆或主板直接连接,⽆需⽹卡。例如,AWS和⾕歌单机柜配置64张GPU,⽽英伟达则为72张。每个卡还需要跟其他机柜上的卡去互联,不是直接互联的,每个卡外⾯接⼀个⽹卡,这个⽹卡其实是⼀个协议翻译器,它是不同协议转换的桥梁,从内部⽐如跑PCIe协议或者NVLink协议,你转换到可以对外组集群的以太⽹协议。协议转换好之后,⽹卡都会连到交换机上去,上⾯会有交换机的,不是直接和另外⼀个机柜上的某⼀个⽹卡直接连,都是跟交换机连。如果集群规模很⼤,可能上⾯会连好⼏层交换机,再通过交换机端⼝进⾏⽹卡和⽹卡之间的互联。
那scale up层⾯的光互联体现在哪⾥?
因为卡太多了,所以不得不⽤光。像英伟达这种72卡放在⼀个机柜⾥⾯,卡和卡之间互联,⽤铜缆平均距离⼤约0.6⽶,铜缆的极限距离现在在⾼速信号下⼤概可以达到四五⽶左右,⼀个机柜内都能够满⾜。但是像菊花厂的384,将384张卡放在12个机柜中,机柜和机柜之间,要跟其他机柜的卡去直接互联,⽽不是通过⽹卡,这个距离可能会达到10⽶甚⾄30⽶,所以需要⽤到光模块。菊花厂的卡,⼀个板⼦上⾯⽐如8张卡,有rear side和front side,分别对应前⾯板和后⾯板,前⾯板对应的是连⽹卡,后⾯叫背板,背板上可以有⼀些槽位/接⼝。这些槽位如果是英伟达就⽤铜缆来连,菊花厂⽤光模块来连。因为光模块是物理层的设备,⽆所谓协议。
是不是可以理解成菊花厂384的⽅案,这12个机柜只是物理性的限制,可以把它看成⼀个机柜,这⾥⾯原先⽤铜缆连接的部分被光模块替代了?
是的。不同的芯⽚之间的连接,可以做到极⼤带宽⽆阻塞,⽽且每个芯⽚上都有HBM,这些内存地址都是共享的,是统⼀管理的。本质上ASIC⼚商核⼼还是在于缺少NVLink这种⾼速互联协议,所以需要⽤光连接。
新易盛明年(2026年)的核⼼增量其实是Meta,如果Meta明年的需求是1400万只的话,亚⻢逊明年800G总需求是多少?
亚⻢逊明年⼤概500万只,今年280万只。明年亚⻢逊⼤概有200万颗的ASIC,按照1:2来算,⼤概需要400万只800G光模块。新易盛在亚⻢逊市场份额可能超过旭创。具体要看招标情况,如果Oracle、XAI都能拿到订单肯定还要继续扩充产能,现在是光这三家⼤客户(亚⻢逊、Meta、英伟达)就⾄少需要备产750万只。
扩产周期需要多久?
⽬前扩产周期已缩短⾄8个⽉,相较于此前⼀年多的周期显著加快。如果25年下半年招标结果显示新易盛获得更多订单,其将进⼀步扩产以满⾜新增需求。各⼤云⼚商将在25年9⽉启动招标流程,最终结果预计11⽉公布,这⼀时间节点将直接影响新易盛明年的扩产规模与节奏。
1.6T光模块在2026年的市场需求结构如何分布?英伟达、⾕歌、AWS和Meta分别占据哪些份额?
预计2026年1.6T光模块市场总需求可达700万只,其中英伟达占据主导地位,⾄少贡献500万只;⾕歌需求约120万只;AWS和Meta则各⾃可能贡献七⼋⼗万只。
展望旭创明年(2026年)业绩会有多少?
明年预计旭创增速没有新易盛这么⾼,但是利润率会提升。⼀是光模块⾏业在向⾼速率转型,⼆是市场供不应求,再加上中际旭创有硅光的加成,硅光对⽑利率提升⾄少有四五个点。
对于中际旭创和新易盛在⾼速产品领域的发展前景以及市场竞争格局有何看法?
中际旭创和新易盛均专注于⾼速光模块领域,其中800G和1.6T是未来核⼼增⻓点。中际旭创凭借硅光技术⼤规模导⼊,有望进⼀步提升产品竞争⼒,并改善⽑利结构。然⽽,新易盛凭借性价⽐优势,在400G领域已取得显著份额,并有潜⼒超越中际旭创成为该领域领先者。此外,新易盛与Meta、英伟达、AWS等国际⼤客户合作紧密,这些客户对价格敏感度较低,为其提供了稳定的收⼊来源。 整体来看,两家公司未来的发展将取决于各⾃在技术创新、⾼速产品布局以及成本控制上的能⼒,同时也受到⾏业供需关系变化的影响。在当前供不应求的⼤环境下,⾼速产品转型将成为推动业绩增⻓的重要驱动⼒。
当前800G光模块的市场供给情况如何?头部及⼆三线⼚商的产能扩张计划对整体供需关系有何影响?
根据调研,2026年800G光模块的设备和⽣产产线能⼒预计不会出现瓶颈,但由于上游芯⽚供应紧张,可能导致实际交付量⽆法完全满⾜需求。头部⼚商⽅⾯,旭创2026年的产能预计为1500万只,新易盛保守750万只,有望冲⾄⼋九百万只,⽽菲尼萨的产能为700万只。合计来看,前三⼤⼚商总产能接近3000万只。 ⼆三线⼚商也在积极扩产。例如,剑桥计划达到250万只,索尔思300万只,Cloud Light约250万只,AAOI明年150万只产能,华⼯和光迅各200万只。此外,还有⼀些⼩型⼚商如联特等贡献⼏⼗万的产能。综合计算,包括头部和⼆三线⼚商在内,总体市场2026年的理论总产能可能超过6000万只。 然⽽,这些新增产能中有相当⼀部分来⾃尚未获得订单⽀持的⼆三线⼚商。这些企业为了争取未来订单⽽提前扩建,但其实际交付能⼒仍需观察。因此,光模块的设备和⽣产产能明年预估会扩到6000万只以上,因为现在光模块扩产已经⽐较容易了。
2026年是否会出现800G光模块价格战?哪些因素将决定价格⾛势?
价格⾛势主要由供需关系决定。从设备⻆度看,⽬前光模块⽣产设备和产线扩展较为容易,⼀般8个⽉即可完成,因此理论上不存在设备或产能瓶颈。然⽽,从⼈员培训和核⼼原材料供应来看,这两⽅⾯短期内难以快速提升。因此,即便设备层⾯具备6000万以上的理论总产能,但实际有效⽣产能⼒可能远低于此⽔平。 此外,⽬前头部⼚商如旭创、新易盛等仍以⽑利润为考核⽬标,并未表现出通过降价抢占市场份额的意图。⽽⼆三线⼚商虽然积极扩张,但其进⼊CSP⼤客户采购体系的机会有限。因此,在需求增⻓较快且⼤客户采购策略保持稳定的情况下,⼤规模价格战发⽣概率较低。但若未来某些⼤客户选择引⼊更多⼆三线供应商并压低采购价,则可能改变这⼀局⾯。
3.2T光模块的发展进程如何?预计何时能够实现规模化应⽤?
公司已于2025年启动3.2T光模块预研与开发⼯作。⽬前由于单波400G芯⽚尚不成熟,公司采⽤将两个芯⽚并联模拟400G的⽅法进⾏前期开发与评测。然⽽,要实现最终稳定架构下的3.2T光模块,还需等待单波400G芯⽚技术成熟,这⼀过程预计需要两年时间,即最早到2027年才能实现产品出货。⾄于规模化应⽤,还需更⻓时间。从需求端看,以英伟达为代表的⼤型AI芯⽚制造企业对⾼速率光模块具有优先采购需求,其迭代速度快于其他⾏业参与者,如⾕歌等企业。此外,实现3.2T规模化应⽤还取决于整个产业链配套设施(如以太⽹交换机、⾼速⽹卡)的成熟度。因此,相⽐英伟达这种封闭系统环境下快速升级,其余开放⽣态系统中的企业升级速度会相对滞后,但⻓期来看仍会逐步过渡到更⾼规格产品。