用户头像
加拿大棕熊
 · 加拿大  

$英伟达(NVDA)$

很多人把2000的互联网基础建设泡沫,与今天的 AI 芯片需求混为一谈,但两者的 边际需求模型 marginal demand model 完全不同。

一,2000 年网络基础设施:一次性投入,可承载巨大富余需求,当年 Cisco 的路由器、交换机有几个特点:单设备容量很大,骨干网铺好后,新增用户并不需要等比例增加设备投入大多是一次性的固定资本支出(CapEx)

换句话说:
光纤和交换机铺好之后,可以多年不需要大规模追加投资。

二, 今天的 AI 算力:需求是线性的、持续性的、甚至呈指数增长

AI 的基础设施不是“耐用品”,而是“持续消耗品”。

模型变大 → 要更多算力;用户变多 → 要更多算力;推理实时化 → 需要更多算力

多模态、Agent、RAG → 再次拉高算力需求

使用大量 Blackwell GB200/B200 训练完一个模型,并不会让未来的需求减少,反而会催生更大的模型和更多推理量。

AI 的算力需求不会停止,随着用户的递增,只会不断累积。

三,AI 每一次使用都要重新计算,而不是简单传输数据

互联网时代是“传输数据”。AI 时代是“实时生成计算结果”。

因此:用户越多 → 芯片需求越多;模型越复杂 → 芯片需求越多;

场景越实时 → 芯片需求越多。

这不是一次性的基础建设,而是 持续、线性增加投入的产业链

本质上:
AI 是一个“算力工厂”,产能 = GPU 装机量。

一句话总结

2000 年 Cisco 的基础设施是一次性建设、边际成本趋近于零;
今天的 AI 芯片需求是线性累加、边际需求无限,每多一个用户、一个模型、一个 AI agent,都需要更多 Blackwell 芯片