CPU在AI的作用是什么

用户头像
GoodLeadWang
 · 广东  

作用1:AI 任务总调度

负责指挥整个 AI 系统:分配任务、调度 GPU/TPU/NPU 等算力芯片、管理内存 / 显存 / 网络,相当于 AI 集群的指挥官

CPU相当于军队的司令,他指挥战士干活(算力芯片)、对军粮的筹划(内存)等等。

备注:这个是重点,需要明白作用1:AI 任务总调度,才能明白后面的内容。

作用2:数据预处理

训练 / 推理前的数据清洗、格式转换、加载、解码(图片 / 音频 / 文本),这些灵活、零散的逻辑全由 CPU 完成,是 AI 模型的数据保姆。

司令需要对部队进行整理分类(数据清洗、格式转换等等),才会派上战场(送到算力芯片)。

多模态对 CPU 的需求

多模态不只是 “算文字”,还要 “看图、听声、解码、对齐”,CPU 既要当预处理苦力,又要当全局总指挥。

步骤1:CPU 先做「多模态预处理」

CPU把图片、音频、视频、文本全部翻译、整编、标准化

图片:裁剪、去噪、转成模型能读的张量。

音频:降噪、采样、转成频谱特征。

视频:拆成帧、对齐时序、压缩特征。

目的只有一个:把不同类型的数据,变成同一套模型能理解的标准。

这一步对 CPU 的需求非常大,一张图片有成千上万个像素点,一段音频有大量采样点。

步骤2:再统一交给 GPU/NPU 算力芯片

算力芯片只管大规模矩阵计算,不管你是图还是音,只要是规整好的数据,它就猛算。

步骤3:最后 CPU 再把结果组装回去

算力芯片算完,CPU 再把输出变回:文字回答、生成图片、输出语音、合成视频。

合成视频:逐帧合成 → 画面渲染 → 运动补偿 → 视频硬编码 / 软编码(H.264/H.265) → 封装成 MP4。消耗极大,多核 CPU 直接跑满。

多智能体协同对 CPU 的需求

对Agent、token不动的可以看这篇AI简单科普

多智能体(Multi-Agent)协同对 CPU 的需求非常大,甚至比多模态更吃 CPU,而且是CPU 瓶颈远大于 GPU 瓶颈

多模态是 “一个人干多种活”,

多 Agent 是 “一群人同时干活 + 还要互相沟通、统一指挥”,

CPU 就是最累的那个司令

以下需求都是CPU在AI 任务总调度的应用。

需求1:每个 Agent 是一个独立的模型实例 / 进程 / 线程

规划 Agent、搜索 Agent、编码 Agent、执行 Agent、总结 Agent……

每个都要:加载上下文、做前处理、读内存、发指令。

CPU 要同时管理多个模型的生命周期线程数、核心数直接被吃满

战事指挥需要司令(CPU)部署。

需求2:Agent 之间的通信与协同

GPU 只管 “矩阵计算”,但:

Agent 之间发消息、共享上下文、传递结果、等待、同步、加锁等等,

这些全部是 CPU 密集型操作,GPU 基本帮不上忙。Agent 越多,通信开销指数级上涨

各个部队的协同都需要司令(CPU)指挥。

需求3:调度逻辑全压在 CPU

多 Agent 系统需要一个大脑

分配任务、决定谁先跑、合并结果、纠错、重试、回滚。

这是控制面算力,纯 CPU 工作。Agent 越复杂,调度 CPU 占用越高。

战术、战略都是司令(CPU)负责的。

多智能体协同用来干嘛的

写一份行业报告:搜索 Agent 查资料 → 分析 Agent 整理数据 → 写作 Agent 撰稿 → 校对 Agent 改错。

做软件开发: 需求Agent 理解需求 → 代码 Agent 写程序 → 测试 Agent 找 Bug → 部署 Agent 上线。

客服 + 工单 + 调度:客服 AI 接待 → 工单 AI 分类 → 知识库 AI 查答案 → 调度 AI 分配给人工。

多智能体的核心能力:把长流程、多步骤、需要分工的复杂任务,自动跑完一整条流水线。

简单总结

以前:你自己从头干到尾。

现在:多智能体就是你的全自动助理团队,脏活、累活、杂活它们干,你只负责动脑、拍板、验收

AI 能干的事越复杂、越多,就越要靠多智能体协同,也就越消耗 CPU,CPU 越容易变成瓶颈。

当前CPU供给台积电代工情况

台积电先进制程中,AI 芯片 (英伟达 GPU、谷歌 TPU 等) 占比高达 45%,直接导致 CPU 产能同比减少 18%。英伟达、苹果等高毛利客户获得优先产能分配,CPU 厂商被迫接受更长交付周期或支付溢价。

AMD100% 依赖台积电代工,无自有先进制程产能。

Intel:约 30% 产能外包台积电,自有工厂生产 70% 产品,但先进制程 (Intel 4/Intel 3) 良率与产能不足,仍面临供应缺口。

产能利用率:台积电先进制程 (N2/N3/N4) 达100%,订单排至 2027 年,CPU 代工产能被 AI 芯片挤压,缺口约 15%-20%。

交付周期:3nm约5-6 个月,4nm/5nm 约3-4 个月,较 2024 年延长 50%,AI 服务器 CPU 短缺加剧。

逻辑链路

AI 能干的事越复杂、越多 => 越要靠多智能体协同 => CPU需求越大 => CPU供给受限 => CPU溢价更高。

属于需求增加,供给不足的情况。

供应链

海光信息:CPU 占总营收比例预估在70%左右。主要代工厂商台积电 ,台积电承担海光先进制程 CPU 80% 以上的生产任务。2025 年上半年国内服务器市占率超 50%(国产第一),英特尔约 30%,AMD约 15%。

龙芯中科:完全自主指令集(龙架构 LoongArch)路线的 CPU 芯片设计公司,CPU 及配套芯片业务占总营收超 80%。无国外授权依赖,适合涉密多智能体场景。

通富微电集成电路封装测试占总营收比例约96.98%。深度绑定 AMD,AMD 贡献营收占比持续提升,2025 年 H1 达近 60%。海光 CPU 系列的封测供应商。

长电科技集成电路封装测试占总营收比例约98.5%。营收占比55%源于英伟达AMD、SK 海力士、高通、联发科。海光 CPU 系列的封测供应商。

$海光信息(SH688041)$ $龙芯中科(SH688047)$