在AI时代,市场讨论最多的是模型、应用、甚至是大厂,但真正决定上限的,始终是两个东西:算力 × 电力。
而当我们把视角从“卡的性能”拉回到“系统效率”,一个被长期低估的公司开始浮出水面——景嘉微。
先说结论:在电力约束下,景嘉微凭借更优的功耗控制与系统适配能力,实现更高的“Token/瓦”产出效率,相比寒武纪和海光信息更具实际商业性价比。
绝大多数人对GPU的认知,还停留在参数层面:
FP16 / INT8算力、显存带宽、芯片制程
但在大模型时代,真正的核心指标只有一个:
👉 单位时间、单位电力,能产出多少Token
也就是说:
Token / 秒 / 瓦(TPS/W)才是终极指标
这是因为:
推理阶段占比越来越高(商业化阶段)
电力成为真正的硬约束(尤其在中国)
数据中心的ROI,最终取决于“每度电产出多少价值”
很多人忽略了一个现实:
👉 中国的数据中心,本质上是“电力受限型增长”
约束来自:双碳政策、地区电力配额、IDC能耗指标(PUE限制)
这意味着:
你不是想装多少卡就装多少卡,而是“每一度电必须更值钱”
在这种背景下:
单卡性能再强,如果功耗高 → 没意义
堆卡方案(粗暴扩算力) → 不成立
高能效比GPU → 反而成为核心资产
但这本身就是错位的。
景嘉微的路线,本质是:
在中国电力约束下,做最优性价比的Token产出方案
具体体现在三个层面:
相比部分高端算力卡:功耗更低、散热要求更低、部署密度更高
在同样机房功率上限下:
可以部署更多有效算力节点
在中国生态内:操作系统(麒麟、统信)、CPU(鲲鹏、飞腾、海光)、AI框架(昇腾系、Paddle)
景嘉微的适配成本更低:整体系统效率 > 单卡性能
未来算力的80%在推理侧:大模型API调用、AI Agent、行业模型部署。
推理的特点是:高频调用、长时间运行、极度依赖功耗效率。
景嘉微在这一侧的性价比会被持续放大
我们把问题简化:
假设一个机房:总功率:10MW;运行周期:24小时
两种方案:
单卡性能强、但功耗高、实际部署数量少
单卡性能略低、但功耗更优、可部署更多卡
最终结果:B方案的Token总产出,很可能更高
这就是关键:AI商业化不看“单点性能”,看“总产出效率”
市场目前给景嘉微的估值方式,还是:芯片设计公司、国产替代逻辑、军工属性
但真正应该用的,是:算力资产估值模型
类似:云厂商(AWS、阿里云)、IDC公司、电力资产
核心变量变成:每瓦Token产出、每Token成本、算力利用率
一旦市场认知切换:
景嘉微 ≠ GPU公司
景嘉微 = “中国电力约束下的最优算力解”
几个趋势正在叠加:大模型进入推理商业化阶段;电力约束逐步显性化;国产算力生态逐步闭环;AI应用开始真正消耗Token
这意味着:算力开始从“讲故事”走向“算账”
而一旦开始算账:
高功耗路线 → 会被重新定价
高能效路线 → 会被放大价值
在中国特定约束条件下,它可能是“最优解之一”
当市场还在讨论:算力有没有,卡够不够
更深一层的玩家,已经在看:
每一度电,能变现多少Token
而这,才是下一阶段的核心定价权。