通用GPU 和 ASIC还是有区别的。实际上,Anthropic订购的1百万TPU是部署在谷歌云(Google Cloud)中的,而不是由Anthropic自己拿去建设独立的数据中心。Anthropic与谷歌云的合作模式是通过谷歌云平台使用这些TPU资源,即Anthropic通过谷歌云的基础设施来运行其AI模型训练和推理任务,而不是物理上将这些TPU芯片运送到Anthropic自己的数据中心。因此,这1百万TPU是作为谷歌云服务的一部分,由谷歌负责部署、维护和管理,Anthropic则通过云服务接口按需使用这些算力资源。Anthropic在之前宣布与谷歌的合作之后,最新宣布要投500亿建自己的数据中心,这其中GPU会选用谁的,自然是焦点话题,我认为选项是NVDA,AMD,自己也设计ASIC也是一种可能(我认为可能性排第三),选谷歌TPU可能性微乎其微。至于OpenAI 的数据中心GPU, 现在已经很明显是NVDA,AMD, 自家的ASIC这三大选项,我认为已经足够了,选谷歌的TPU的可能性我认为几乎没有。
通用GPU 和 ASIC还是有区别的。
实际上,Anthropic订购的1百万TPU是部署在谷歌云(Google Cloud)中的,而不是由Anthropic自己拿去建设独立的数据中心。
Anthropic与谷歌云的合作模式是通过谷歌云平台使用这些TPU资源,即Anthropic通过谷歌云的基础设施来运行其AI模型训练和推理任务,而不是物理上将这些TPU芯片运送到Anthropic自己的数据中心。因此,这1百万TPU是作为谷歌云服务的一部分,由谷歌负责部署、维护和管理,Anthropic则通过云服务接口按需使用这些算力资源。
Anthropic在之前宣布与谷歌的合作之后,最新宣布要投500亿建自己的数据中心,这其中GPU会选用谁的,自然是焦点话题,我认为选项是NVDA,AMD,自己也设计ASIC也是一种可能(我认为可能性排第三),选谷歌TPU可能性微乎其微。
至于OpenAI 的数据中心GPU, 现在已经很明显是NVDA,AMD, 自家的ASIC这三大选项,我认为已经足够了,选谷歌的TPU的可能性我认为几乎没有。