写在存储起爆时

用户头像
lern
 · 江西  

说实话,看了那么久雪球,现在真的是越来越没营养了,一点没以前的万物生机勃勃竞发的境界,这大概就是劣币驱逐良币吧。

存储到现在已经平均3倍了,但是大多数人都在说套话,什么AI需求啦,什么AI增量啦,没有说到本质,为什么这波存储能在短期内这么猛,本质上是技术的迭代导致的,理解了这个,你才能知道这轮存储周期到底有多长!

实际上从年头deepseek火了以后,出了一堆moe的模型,然后清华kt团队又出了一个拿内存去运行非激活moe专家的算法,可能当时觉得没什么,直到现在新出的模型都是moe,什么qwen3next了,wan2.5了,qwen3image了,都是moe吃内存大户,一吃就是好多的内存。

MOE(混合专家模型,Mixture of Experts)是一种通过将复杂任务分解为多个子任务,并由不同 “专家” 子模型分别处理的 AI 架构。其核心思想是 “术业有专攻”—— 每个专家模型专注于特定类

点击查看全文