梁文峰新架构,中等GPU+大内存+CPU,以存代算,用“查字典”代替一部分“硬算”

用户头像
快兔充电
 · 上海  

老黄芯片可能长期禁入中国局面下,

梁文峰的聪明办法,并且可能意外地带火一批国产芯片公司。

核心思想:以存代算,用“查字典”代替一部分“硬算”

想象一下,你每次回答问题都要从头推理,很慢。但如果你提前把所有答案都记在一本超厚的字典里,每次只是快速翻找,就会快很多,还省力气。

梁文锋的“Transformer+Engram”架构就是这个思路:

· “字典”就是“Engram”搜索表:它把AI推理中很多需要复杂计算的步骤,提前算好、存起来。

· 运行时主要靠“查表”:AI运行时,很多问题变成在庞大的“记忆表”里做查找,而不用让GPU去硬算。

· 好处:“查表”这个活,主要靠CPU和大内存就能高效完成,对顶级GPU算力的依赖就降低了。

为什么这个办法现在被重视?因为被卡脖子了。

1. 海外训练的路可能走不通:国内公司想把数据送到国外用老黄芯片训练,但大量核心数据出国涉及国家安全,很可能被严格限制。

2. 顶尖算力芯片禁运可能长期化:如果买不到最新的H200等芯片,国内AI算力就会出现巨大缺口。

于是,“中等GPU+大内存+CPU”的搭配就成了一个实用的替代方案:用国产的、中等性能的GPU,配合超大的内存和CPU来“查表”,协同工作,也能达到不错的AI效果。

这个趋势会利好哪些国产芯片?

1. 首先利好国产存储芯片:因为“表”会越做越大(几百GB到TB级),表越大,能效越高,对内存(DRAM)和存储芯片的需求会爆炸式增长。这就是为什么你提到砺算、东芯这类公司可能会直接受益。

2. 利好多种国产CPU:无论是X86、ARM还是其他架构的CPU,只要能高效处理“查表”任务,就都有用武之地。

3. 利好接口芯片:像CXL这种能让CPU和内存更快共享数据的技术,也会变得更重要。

4. 为中端GPU创造机会:国产GPU不必一味追求达到老黄顶尖的算力,只要能高效配合这种“查表”架构,就有很大的市场空间。

总结与展望

· 对国内:这很可能成为未来几年中国AI领域的一个主流技术方向,是应对技术封锁的一条有效路径。

· 对全球:如果这个架构被证明在成本和效率上都有优势,也可能影响全球AI基础设施的格局。

· 对投资:它直接指明了在“后禁运”时代,国内AI算力产业链上可能突围的几个关键环节:存储、CPU、互联接口和中端GPU。你关注的砺算等公司,正好处于这个新链条的核心位置。

$东芯股份(SH688110)$

$中国长城(SZ000066)$

$天普股份(SH605255)$