房间里的大象:ai技术歧途。
当前市场中,以GPU为主的算力架构因适配大语言模型(LLM)需求,被资本爆炒。GPU凭借大规模并行计算能力,成为支撑LLM训练与推理的核心硬件,以GPU为核心的超级算力中心被视为天顶星工程,以llm为核心的大语言模型被视为未来科技;在国内市场,CPO因能降低GPU集群数据传输的能耗与延迟,被视为算力优化的未来方案。
但从长期技术路线看,这种算力架构均存在根本性缺陷——其价值完全绑定LLM路线,而LLM路线本身已显现明确的天花板与边际效应,只是当前多数资金选择忽视这一“房间里的大象”。
LLM路线的核心问题在于,其性能提升高度依赖模型参数与训练数据量的堆砌,且边际效益持续递减。自GPT 4推出后,LLM虽实现自然语言处理等领域的突破,但随参数规模从千亿级向万亿级扩张,算力需求呈指数级增长,而实际性能提升(如逻辑推理、知识准确性、长文本理解)却越来越有限。例如,LLM模型参数翻倍后,复杂任务正确率仅提升5%-8%,但训练成本增加超150%。同时,LLM基于Transformer架构,计算量随输入序列长度呈平方级增长,长文本处理能力受限,且无法真正实现逻辑推理与自主学习,离通用人工智能(AGI)的核心需求相去甚远——这意味着LLM路线的天花板已客观存在,仅靠算力堆砌无法突破。
这是逻辑,逻辑看不懂,可以看现实案例,GPT5发布已久,效果如何?很多人的解释是OpenAI这个公司仓促公开新模型与市场预期不符。是市场预期太高了,或者是OpenAI有问题,换成谷歌,换成meta,换成马斯克 ,总会有足够优秀的大模型出现。
但是,OpenAI是llm路线的绝对领路人,拥有绝对的先发优势和相对的体量优势,他们的产品很大程度上已经代表了路线的天花板。如果GPT5无法让你看到当前llm路线的明显天花板,那我们等着看其他公司的模型。
回到美国爆炒的GPU和国内爆炒的CPO,CPO与GPU算力架构的命运,完全与LLM路线绑定。GPU是LLM的“算力基座”,CPO是“基座的优化配件”,二者均无脱离LLM的独立价值。若LLM路线被证伪,GPU的大规模需求将消失,CPO作为配套技术更无存在意义。
皇帝的新衣一定会被戳破,房间里的大象也一定会被“看到”。只是早和晚的问题。
从时间节点看,最迟2026年,随着主流新一代大模型问世,LLM路线的问题将开始被多数人质疑。而重要东时间节点是GPT 6发布,性能提升幅度大概率会进一步收窄,直观暴露LLM路线的瓶颈;另一方面,随着LLM边际效应加剧,企业将发现持续投入GPU算力中心的ROI(投资回报率)急剧下降,届时多数厂商会停止新的算力中心建设,进而导致GPU需求萎缩、CPO技术失去应用场景而价值清零。
房间里的大象不会因为你忽视它而消失。
$英伟达概念(BK1581)$ $CPO(共封装光学)(BK1570)$
长线逻辑不构成短线投资建议