老黄芯片可能长期禁入中国局面下,
梁文峰的聪明办法,并且可能意外地带火一批国产芯片公司。
核心思想:以存代算,用“查字典”代替一部分“硬算”
想象一下,你每次回答问题都要从头推理,很慢。但如果你提前把所有答案都记在一本超厚的字典里,每次只是快速翻找,就会快很多,还省力气。
梁文锋的“Transformer+Engram”架构就是这个思路:
· “字典”就是“Engram”搜索表:它把AI推理中很多需要复杂计算的步骤,提前算好、存起来。
· 运行时主要靠“查表”:AI运行时,很多问题变成在庞大的“记忆表”里做查找,而不用让GPU去硬算。
· 好处:“查表”这个活,主要靠CPU和大内存就能高效完成,对顶级GPU算力的依赖就降低了。
为什么这个办法现在被重视?因为被卡脖子了。
1. 海外训练的路可能走不通:国内公司想把数据送到国外用老黄芯片训练,但大量核心数据出国涉及国家安全,很可能被严格限制。
2. 顶尖算力芯片禁运可能长期化:如果买不到最新的H200等芯片,国内AI算力就会出现巨大缺口。
于是,“中等GPU+大内存+CPU”的搭配就成了一个实用的替代方案:用国产的、中等性能的GPU,配合超大的内存和CPU来“查表”,协同工作,也能达到不错的AI效果。
这个趋势会利好哪些国产芯片?
1. 首先利好国产存储芯片:因为“表”会越做越大(几百GB到TB级),表越大,能效越高,对内存(DRAM)和存储芯片的需求会爆炸式增长。这就是为什么你提到砺算、东芯这类公司可能会直接受益。
2. 利好多种国产CPU:无论是X86、ARM还是其他架构的CPU,只要能高效处理“查表”任务,就都有用武之地。
3. 利好接口芯片:像CXL这种能让CPU和内存更快共享数据的技术,也会变得更重要。
4. 为中端GPU创造机会:国产GPU不必一味追求达到老黄顶尖的算力,只要能高效配合这种“查表”架构,就有很大的市场空间。
总结与展望
· 对国内:这很可能成为未来几年中国AI领域的一个主流技术方向,是应对技术封锁的一条有效路径。
· 对全球:如果这个架构被证明在成本和效率上都有优势,也可能影响全球AI基础设施的格局。
· 对投资:它直接指明了在“后禁运”时代,国内AI算力产业链上可能突围的几个关键环节:存储、CPU、互联接口和中端GPU。你关注的砺算等公司,正好处于这个新链条的核心位置。