2013年,谷歌长期担任首席科学家的Jeff Dean在一次内部演示中介绍了利用深度神经网络改进语音识别系统的突破。
当时的谷歌硬件工程师Jonathan Ross回忆说:"第一张幻灯片是:好消息!机器学习终于成功了。第二张幻灯片是:坏消息,我们负担不起。"
Dean计算得出,如果谷歌数亿消费者每天使用语音搜索仅三分钟,那么该公司就必须把数据中心规模扩大一倍才能满足这一功能——这将花费数百亿美元。
于是TPU项目就这么启动了。最初只是一个业余项目,只有15个人制造了第一块芯片。
早期应用案例之一是2016年谷歌DeepMind的AlphaGo程序战胜围棋世界冠军李世石的著名比赛。这场比赛被认为是AI发展史上的一个重要里程碑。
多年来,TPU一直为谷歌的许多核心服务提供支持,包括搜索、广告和YouTube。
英伟达称其仍然"领先业界一代",并且是"唯一能够运行所有AI模型的平台",并补充说:"我们继续向谷歌供货。"
英伟达强调,与TPU等专用处理器相比,它具有"更高的性能、多功能性和可互换性",而TPU等处理器"是为特定的AI框架或功能而设计的"。
英伟达认为其大约领先谷歌TPU两年。由于AI模型变化迅速,英伟达认为谷歌很难让云服务提供商采用TPU,因为TPU是为更特定的模型类型设计的。相比之下,英伟达相信其更灵活、可编程的平台仍然是构建大规模云端AI基础设施的最佳选择。
全球AI开发者正面临着英伟达硬件成本不断攀升和漫长等待时间的双重压力,迫使各大公司考虑替代方案。
谷歌一直将TPU定位为更具成本效益且易于获取的选择,能够支持大规模AI系统的训练,且不受供应限制。
这种灵活性对很多公司来说至关重要。
专家补充说,AI赋能的编码工具可以让潜在的TPU客户更容易地重写他们的软件,而到目前为止,这些软件大多是建立在英伟达专有的CUDA平台之上的。
谷歌通常每两年发布新一代TPU,但自2023年以来,这一节奏已转变为每年更新一次。
谷歌发言人表示:"谷歌云对我们定制的TPU和英伟达GPU的需求都在加速增长。我们将一如既往地继续支持这两项技术。"
在这个故事里,台积电扮演着关键角色。
台积电看重联发科与谷歌的合作,愿意在3纳米制程与CoWoS封装产能上力挺,给予联发科充裕的产能支援。
从1万片到2万片,再到2027年的15万片以上,这个产能增长曲线相当陡峭。
这也说明台积电对这个项目的信心。