谷歌 透露 其张量处理单元 (TPU) 的第六次迭代,名为 Trillium,用于数据中心 I/O 2024 开发者大会。 尽管具体的发布日期尚未确定,但谷歌确认 Trillium 将于今年晚些时候发布。
谷歌首席执行官桑达尔·皮查伊强调了该公司对人工智能创新的长期奉献,他表示:“谷歌就是为了这一刻而诞生的。 十多年来,我们一直是 GPU 领域的先驱。”
Trillium TPU 提供什么?
Pichai 随后透露了 Trillium 的显着性能增强。 与上一代相比,第六代TPU的单芯片计算能力惊人地提升了4.7倍。 这一改进是通过芯片矩阵乘法单元 (MXU) 的进步和整体时钟速度的提高来实现的。 此外,Trillium 受益于两倍的内存带宽。
Trillium 还采用了 Google 第三代 SparseCore 技术,被描述为“一个专门构建的加速器,用于高级排名和推荐工作负载中常见的大规模任务。” 这使得 Trillium TPU 能够更快地训练模型,并在为这些模型提供服务时提供更低的延迟。
谷歌还关注能源效率,皮查伊称 Trillium 为该公司的 迄今为止“最节能”的 TPU。 考虑到人工智能芯片的需求不断增长,这一点尤其重要,这可能会对环境产生重大影响。 谷歌声称 Trillium 的能效比其前身高 67%。
“Trillium 可以在单个高带宽、低延迟 Pod 中扩展到多达 256 个 TPU。 除了这种 Pod 级可扩展性之外,借助多片技术和 Titanium 智能处理单元 (IPU),Trillium TPU 还可以扩展到数百个 Pod,从而连接建筑物级超级计算机中的数万个芯片,这些芯片通过每秒数拍比特的速率互连数据中心网络。 “
-谷歌
虽然人们的注意力通常集中在软件发布和人工智能进步上,但像 Trillium 这样强大的硬件开发为这些进步提供了动力并使其成为可能。 这种新型 TPU 的推出强调了科技界的一个基本事实: 处理能力就是一切。
Trillium TPU 是 Google Cloud 人工智能超级计算机不可或缺的一部分,专为高端人工智能工作负载而设计的先进超级计算框架。 该架构将性能优化的基础设施(包括 Trillium TPU)与开源软件框架和适应性强的消费模型相结合。
Google 对 JAX、PyTorch/XLA 和 Keras 3 等开源库的奉献精神使开发人员能够自由创新。 对 JAX 和 XLA 的支持确保为早期 TPU 代设计的声明性模型描述与 Trillium TPU 的新硬件和网络功能完全兼容。 此外,谷歌在 Optimum-TPU 上与 Hugging Face 合作,简化了模型训练和部署的过程。
Google Cloud TPU 代表了人工智能加速的巅峰,经过精心设计和优化,可为大规模人工智能模型提供支持。 这些 TPU 仅通过 Google Cloud 提供,为训练和部署 AI 解决方案提供无与伦比的性能和成本效益。 无论是处理大型语言模型的复杂性还是图像生成的创造性需求,TPU 都使开发人员和研究人员能够扩展人工智能的前沿。
特色图片来源: 拉杰什瓦尔·巴楚/Unsplash