用户头像
守株待兔
 · 福建  

$范式智能(06682)$

之前,我说范式智能中期要做基于国产算力的安卓+huggingface,怼得唱空的自闭,甚至连看多(估计也是墙头草,半吊子)的都崩溃,骂什么无脑吹,甚至拉黑我。[大笑]现在范式智能戴博亲自来打这些人的脸。

他在昨天接受雷递网采访时,首次公开表述:我们致力于要打造的是叫作业界最大的信创的大模型社区,可以认为就叫作信创板的hugging face.这是首次在媒体表述这个产品定位了。到明年,我们希望我们用中国的开发者的力量,把我们的生态应用的丰富度能够追上英伟达的社区。(即百万个以上)。

本人顺便再分享和范式智能的这段调研对话了:

Q:第二个问题是和信创相关的。我觉得现在信创机遇还不错,但我们不是 IT 行业的,不太了解其中的技术。信创模盒现在适配了很多模型,这些模型应该是要部署到企业用户上面去的吧。那部署过程中,公司的EngineX 推理引擎是不是有安装到用户的服务器上,这个会不会成为我们将来推广完整操作系统的一个入口?

A:我先从大的方面讲这个问题,先不陷入细节。信创模盒首先要解决的是国产 GPU 在生态上远远落后于英伟达的问题。现在所有国产 GPU 只会说性能是 A100 的 80%,没有一家会说上面能跑的模型是英伟达的百分之多少。我可以分享一个数字,而英伟达 Hugging Face(还不是全部)有 200 多万个,国产 GPU 的生态能力是英伟达的万分之一。做个假设,英伟达是手机,国产 GPU 也是手机,Hugging Face 就是英伟达的 App Store,里面有 200 万个 APP,某个国产手机只有 几百个能跑,你会考虑买这个手机吗?我们现在要干的就是缩小这个差距,不一定要有 huggingface那么多 APP,但至少不能差 4 个数量级。我们现在给自己的第一个目标是明年年终,争取差一个数量级,至少做到 10 万个模型。到 10 万这个量级,国产 GPU 的使用体验肯定还是比英伟达差,但不会不能用,只是还没那么好用。其二,我们明年年终我们定位做到 Hugging Face 少一个数量级,后年看看能不能在生态上追上。比如客户选了三家信创 GPU 供应商,他要跑数字人模型,在 Hugging Face 下载的模型在三家 GPU 上都跑不起来,只能在英伟达上跑。我们现在先适配到其中一个 GPU 上,让它能跑,但万一这家 GPU 公司供应链遇到困难,供不上了,能不能切到另一家?我们要解决的就是这个问题,让应用端的客户有安全感,不管买哪家的卡,最后都能用得起来,这就是现在中国的生态现状。

这还不是范式的终极形态,范式在继续进化。等后面大涨了,我再来接着唱多,继续怼得空头和半吊子精神分裂。

雪球无脑限流,我只好再发一下。