Nebius(NBIS)刚发布了一份 12 页白皮书,系统性阐述了其在 AI 基础设施上的结构性优势。我完整读完后的核心结论是:Nebius 在 AI 全栈具备长期、可持续的竞争优势。
在模型层,Nebius 通过运行时优化显著降低了每 token 的能耗。在相同硬件条件下,大模型之间的能耗差异本应非常明显,例如 Llama 3 405B 每 token 的能耗约为 GPT-3 175B 的 2.3 倍,而 Nebius 的优化可以在不牺牲性能的前提下,实质性缩小这一差距,从而降低推理和训练的边际成本。
在集群层,Nebius 展现出明显优于行业平均的稳定性。其 3,000 张 GPU 规模的集群可以实现约 56 小时的不间断运行,而行业在类似规模下通常只能维持约 10 小时。这意味着更高的吞吐率、更少的中断以及更低的隐性运营成本。
在算力调度与网络层,Nebius 的架构显著提升了资源利用率