跨界,有没有搞头? Google Research推出的KV缓存压缩技术TurboQuant,宣称可将大语言模型推理内存占用减少至少6倍、速度提升最高8倍。对于谷歌压缩技术可能削弱存储需求的担忧,摩根士丹利在近期报告中提出了杰文斯悖论的分析视角:内存效率提升反而可能降低AI应用门槛,激活更多端侧部署场景...
2026年3月,一场由谷歌引发的技术地震,让整个存储芯片圈炸了锅。 Google Research搞出来的TurboQuant,号称能把大模型推理的内存占用压缩至少6倍,速度提升最高8倍。消息一出,美光、西部数据这些存储巨头股价应声暴跌。市场瞬间慌了——AI对存储的需求逻辑,是不是要变天了? 但谁也没想...