币圈界报道:

谷歌推出双轨制AI芯片:专攻训练与推理的新一代架构

为应对日益增长的AI计算需求并增强在云计算市场的竞争力,谷歌云正式发布其第八代定制张量处理单元(TPU)。此次发布采用差异化路线,推出两款专用芯片——面向大规模模型训练的TPU 8t,以及专为高效推理设计的TPU 8i。这一举措不仅展现了谷歌在高性能计算领域的深度布局,也凸显其在挑战英伟达主导地位的同时,坚持构建互补型技术生态的战略思路。

分道扬镳:训练与推理任务的硬件解耦

本次发布的芯片架构实现历史性转变,将原本集成于单一芯片中的训练与推理功能进行物理分离。这一调整源于市场对专业化算力的迫切需求。新推出的TPU 8t专为高吞吐量、高复杂度的模型训练流程优化,适用于大语言模型等前沿人工智能系统的开发。而TPU 8i则专注于低延迟、高并发的推理场景,确保已部署模型能快速响应用户请求。

根据官方公布的基准数据,TPU 8t在训练效率上实现最高三倍提升,单位美元性能跃升80%。更关键的是,谷歌已具备将超过一百万个TPU协同调度的能力,构建起超大规模计算集群,为训练下一代超大规模模型提供了前所未有的基础设施支撑。对于企业客户而言,这意味着在更低能耗和更低成本下获得更强的运算能力。

云厂商自研芯片浪潮再掀高潮

谷歌此举进一步加速了全球主要云服务商自研芯片的竞赛进程。亚马逊云科技已部署Graviton与Trainium系列,微软Azure也在推进Maia加速器的研发。这场被称为“超大规模芯片竞赛”的趋势,背后动因包括对供应链自主权的追求、针对特定工作负载的性能调优,以及对利润率的持续改善目标。

然而,行业观察者指出,将此视为对英伟达的全面围剿存在误读。“这类投资更多是补充而非替代。”一位资深半导体分析师表示,“各巨头的目标并非短期内取代英伟达,而是为其自身平台打造更具竞争力的差异化优势。”历史经验表明,即便早期曾有预测认为谷歌首代TPU可能动摇英伟达地位,但后者市值仍迅速攀升至近5万亿美元,证明其生态系统具备强大韧性。当前,谷歌甚至确认将在未来引入英伟达即将发布的Vera Rubin芯片,彰显合作优先的现实逻辑。

共生共荣:技术协作超越零和博弈

谷歌强调其与英伟达的合作关系持续深化。双方正联合开发新型网络架构,旨在提升基于英伟达硬件系统在谷歌云环境下的运行效率。其中一项核心项目涉及对开源网络框架Falcon的升级,该技术由谷歌于2023年推出,现正通过与英伟达软硬件结合,实现更高带宽与更低延迟。

这一合作揭示出一个深层行业共识:随着企业对云端AI服务依赖加深,整个高性能计算市场的规模正在扩张。无论芯片来自哪家厂商,只要能有效支持实际应用,都将受益于整体需求的增长。因此,主流云平台普遍采取混合策略——将适合的任务分配给自有定制芯片,同时保留对英伟达GPU的广泛兼容性,既提升了自身运营效率,又保障了客户的自由选择权。

性能突破与生态博弈并行

从技术指标看,谷歌新一代TPU在单位功耗性能与成本效益方面逼近甚至部分超越顶级GPU。其百万级芯片集群能力,直接挑战了英伟达在多卡互联技术上的长期优势,如NVLink体系。

新芯片的核心优势体现在:

专业化设计:训练与推理任务分别配置独立芯片,实现精准优化。

经济性提升:每美元性能增加80%,显著降低企业进入门槛。

可扩展性强:支持超大规模集群,支撑前沿模型研发。

软件深度融合:与TensorFlow、JAX等主流框架无缝集成,简化开发流程。

尽管如此,英伟达凭借其成熟的CUDA生态仍占据重要壁垒。数百万开发者掌握该平台,海量应用建立在其之上。虽然谷歌芯片支持主流框架,但迁移现有应用仍需克服适配成本与学习曲线。未来竞争焦点或将从单纯晶体管密度转向整体开发者体验与解决方案价值。

战略定调:非对抗,而是协同演进

谷歌发布TPU 8t与TPU 8i,不仅是硬件迭代,更是其在AI基础设施领域战略定位的重要宣示。它表明公司在激烈竞争中选择了“双轨并行”路径:一方面大力投入自研芯片以提升控制力与成本优势;另一方面主动深化与英伟达的技术协同,确保平台兼容性与生态开放性。

这种策略使谷歌云能够灵活应对多样化的AI工作负载,从高度定制化的训练任务到依赖通用硬件的推理场景均可覆盖。最终,这场技术演进的最大受益者将是企业用户——他们将获得更丰富的产品选择、更优的性价比以及持续进步的算力供给。竞争不再是零和游戏,而是共同推动整个行业迈向更高效率与可持续发展的新阶段。