AI推理芯片ASIC产业链前瞻

用户头像
慕容衣
 · 陕西  


算法固化与大规模部署的推理场景正侵蚀原本属于GPU的市场,ASIC芯片凭借其极致能效和低成本优势成为科技巨头的新宠。

2025年,全球科技巨头面临一个共同挑战:如何高效处理爆炸式增长的人工智能推理计算需求。随着ChatGPT等大模型应用普及,推理计算已占AI总计算需求的70%以上,是训练需求的4.5倍。

谷歌最新一代TPU针对Transformer架构深度优化,计算效率较上一代提升30%以上;亚马逊AWS的Trainium 2聚焦分布式训练场景,支持千亿参数模型的并行计算。

在特定场景下,这些ASIC的表现已逼近甚至部分超越英伟达A100 GPU。

市场爆发:从规模预测到需求驱动

ASIC市场规模正在经历爆发式增长。Marvell在Custom AI Investor Event会上修订了2028年全球ASIC市场规模预期,从429亿美元上调29%至554亿美元。

民生证券指出,全球ASIC趋势加速,定制芯片迎来黄金发展期。从复合增长率来看,2023年ASIC市场规模约为66亿美元,预计到2028年将达到554亿美元,年复合增长率高达53%。应用端推理需求的大爆发是主要驱动力。大厂同步加码定制ASIC芯片以降本稳供成为风潮。

谷歌Meta等科技巨头均加大投入自研ASIC芯片,这些举措都是为了应对AI推理计算的爆发式增长。云计算服务商对“降本增效”的迫切需求推动了ASIC的普及。

谷歌每天处理数十亿次搜索请求,AWS承载着全球数百万企业的云计算需求,Meta的社交平台每秒产生海量交互数据。这些场景的AI任务相对固定,恰好匹配ASIC“定制化”的核心优势。

性能优势:ASIC如何超越GPU

ASIC在推理领域已显现出显著优势。特别是在算法固化、大规模部署的推理场景,ASIC凭借极致能效和低成本,正在侵蚀原属GPU的市场份额。

能效比是ASIC的核心优势。谷歌TPU v5e的能效比是英伟达H100的3倍,AWS Trainium 在推理任务中的性价比比H100高30%-40%。这种优势源于ASIC对特定算法的“极致适配”。

一旦模型部署,其算法逻辑和计算流程会长期固定。ASIC可以直接将这些逻辑“固化”到硬件架构中,去掉GPU中用于通用计算的冗余模块,让硬件资源100%服务于目标任务。

成本优势同样明显。一块NVIDIA GPU功耗约700瓦,运行大模型时每小时电费约0.56元;而同等算力的ASIC芯片功耗可控制在200瓦内,同样任务每小时电费仅0.16元。

对需要数十万台推理芯片支撑的应用来说,这种差距意味着每年数亿元的成本节省。

巨头布局:科技巨头的ASIC战略

全球科技巨头纷纷加大ASIC投入力度以获取AI时代算力红利。谷歌持续迭代其自研TPU,用于大模型推理;亚马逊推出Trainium芯片以优化训练性能;Meta微软也在加快布局自有AI芯片体系。

谷歌CSP中最早自研ASIC芯片的公司,其TPU系列发展可追溯至2015年推出的V1。2023年,谷歌在hot CHIPS展会上展示TPU V4并实现量产;2025年4月,发布最新TPU V7,性能大幅提升。

亚马逊的Chandler芯片是为AWS打造的AI训练与推理芯片。Training 2已进入sky up连接的机柜形态,性能较上一代增长四倍4。网络架构上,服务器内部16个芯片采用4×4或2×2×2×2超立方体网格。

Meta自研芯片发布较晚,但2025年研发与市场推进快4。最新产品是2024年发布的V2,工艺从7纳米升级至5纳米,互联技术升级为PCIe 5.0,下一代计划升级至3纳米。

出货量方面,2025年谷歌自研的TPU芯片出货量预计达150万-200万台,亚马逊AWS的Trainium 2 ASIC约为140万-150万台,两者合计规模已接近同期英伟达AI GPU的40%-60%。

生态链:从设计到制造的产业链格局

ASIC产业链涵盖了从芯片设计、制造到封装的各个环节。博通Marvell是全球ASIC设计服务领域的领导者,博通约占60%市场份额,而Marvell约为10%+6。

博通谷歌Meta等头部公司绑定紧密。2019年,博通AI业务占公司收入比约5%,2023年提升至15%,2024财年AI业务收入超指引达122亿美元。

最新财季AI相关收入同比增长46%,占半导体收入超50%,成为核心增长引擎。

Marvell在AWS产品中逐步承接博通部分业务。2026年Q1(截止7月)营收同比增速超60%(创历史新高),数据中心业务占比75%。

公司上调2028年数据中心业务市场空间预期,从原750亿美元上限提升至940亿美元,其中AI加速器业务占比超60%。

芯片代工巨头如台积电、三星也开始与客户合作开发ASIC项目。台积电CoWoS封装技术是ASIC芯片量产的关键环节,但当前CoWoS晶圆产能仅能支持30万-40万片,远低于Meta100万-150万颗的出货目标。

国内方面,政策和资本双轮驱动,AI ASIC市场有望进入快速扩张期。中芯国际作为全球领先的集成电路代工厂,目前晶圆产能预定处于供小于求的紧张状态,未来将受益于国内AI ASIC发展带来的增量业务。

国内机遇:中国ASIC产业的发展前景

中国ASIC产业在国产替代和政策支持下迎来发展机遇。美国出口管制下,中国ASIC企业市占率从2024年不足20%跃升至2025年40%。

华为昇腾910B通过Chiplet技术实现算力密度2.5PetaFLOPS,已接入国家超算广州中心。中昊芯英“刹那”TPU采用存算一体架构,能效比达30TOPS/W,超越英伟达A100的20TOPS/W。

政策支持方面,“东数西算”工程带动西部数据中心ASIC需求激增,宁夏枢纽集群已部署超50万国产AI芯片。

国家集成电路基金三期投入超2000亿元,在上海张江新建ASIC先进封装测试中心,攻克CoWoS、TSV等关键工艺。

多家国内公司有望受益于ASIC发展浪潮。铂科新材芯片电感可以应用于ASIC芯片,起到为其前端供电的作用,并具有小型化、耐大电流的特性。

国科微AI边缘计算芯片的研发是基于大模型底层架构设计的算力芯片,同时可兼容传统CNN架构,因此其能效较高。

翱捷科技拥有约400人的芯片定制化团队,除辅助自身4G/5G基带芯片研发外,还承接外部项目。其在手机芯片领域积累了自研IP,部分IP已授权手机厂商使用。

公司先进制程芯片具备一次流片成功的量产能力,与国内互联网厂商合作已有进展。

挑战与限制:ASIC面临的障碍

尽管ASIC优势显著,但规模化部署并非坦途。这场算力竞赛的背后,隐藏着产能、技术与风险的多重挑战。产能瓶颈首当其冲。

Meta计划2026年量产的MTIA芯片依赖台积电CoWoS技术,而当前CoWoS晶圆产能仅能支持30万-40万片,远低于其100万-150万颗的出货目标。

谷歌、AWS、微软等厂商若同步扩产,高端封装产能将成为制约ASIC放量的“卡脖子”环节。台积电虽然计划2025年将CoWoS产能提升50%,但从产能建设到实际投产需12-18个月,短期内难以缓解供需矛盾。

大尺寸CoWoS封装对芯片设计、材料一致性要求极高,系统调试周期长达6-9个月。即便是技术成熟的谷歌,也需投入大量资源解决散热、信号干扰等问题。

更隐蔽的风险在于ASIC的“专用性陷阱”。AI模型架构并非一成不变,若未来从Transformer转向新型架构,前期投入的ASIC可能面临“瞬间过时”的风险。

黄仁勋曾直言:“一个完美的ASIC在某些工作上表现出色,但在其他方面却很糟糕。一旦AI的工作内容改变,它就会变得毫无用处。”

这也是为何谷歌Gemini模型仍同时部署在英伟达GPU上——通过“通用+专用”的混合架构对冲技术迭代风险。供应链的“蝴蝶效应”也不容忽视。

Meta、AWS等云服务商集中拉货,高端ABF载板、HBM3E存储芯片、液冷组件等关键物料极易短缺,进一步推高成本并拖慢量产节奏。

未来趋势:ASIC与GPU的共存格局

ASIC的崛起并非意味着GPU的衰落,而是AI算力市场从“一极主导”走向“多元共生”的开始。这场变革的最终结局,更可能是“通用GPU+定制ASIC”的双轨并行格局。

短期来看,ASIC是“增量补充”而非“存量替代”。英伟达在高端训练市场(如千亿参数模型)仍占据绝对主导,其技术积累与生态优势短期内难以撼动。ASIC则在特定场景快速渗透,成为云服务商降本增效的重要选择。

2025-2026年将是双线并行的过渡期,市场呈现“GPU主导价值、ASIC增长数量”的特征。野村证券判断:ASIC整体出货量有望在2026年某个时间点超越英伟达GPU。

长期而言,市场将呈现“分层竞争”态势5。英伟达继续领跑通用AI算力市场,支撑前沿模型探索与复杂任务处理。ASIC则在垂直场景占据优势,通过定制化优化实现效率最大化。

从应用维度看,两者的分工将更加清晰:GPU负责“从0到1”的创新探索,ASIC负责“从1到N”的规模落地。

就像超级计算机用于前沿科研,而专用服务器支撑日常数据处理,AI算力市场也将形成“创新与效率”的平衡。

行业数据也印证了这一趋势。摩根士丹利预计,AI ASIC市场规模将从2024年的120亿美元增长至2027年的300亿美元,复合增长率达34%,但同期GPU市场仍将保持20%以上的增速。

这意味着,ASIC的崛起是在做大AI算力市场的“蛋糕”,而非单纯抢夺GPU的份额。芯片代工巨头台积电和三星已经开始与客户合作开发ASIC项目,传统芯片企业如博通和Marvell也多次强调将在AI芯片领域持续扩大布局。

但高端封装产能仍是制约ASIC放量的“卡脖子”环节5。台积电虽然计划2025年将CoWoS产能提升50%,但从产能建设到实际投产需12-18个月,短期内难以缓解供需矛盾。

未来AI算力市场不会是“非此即彼”的零和博弈,而是“各擅其长”的共生生态。英伟达凭借技术、生态与供应链优势,继续主导通用算力市场。谷歌、AWS、Meta等巨头通过ASIC在垂直场景构建壁垒;而博通、Marvell等厂商则在定制芯片领域分一杯羹。