谷歌近日发布了其第六代人工智能加速器芯片 Trillium,声称这一突破性的技术进步将可能从根本上改变人工智能发展的经济学,并推动机器学习的边界。Trillium 芯片在谷歌新发布的 Gemini2.0AI 模型的训练过程中展现了显著的性能提升,其训练性能是前一代产品的四倍,同时能耗大幅降低。

谷歌首席执行官桑达尔・皮查伊在发布会上强调,Trillium 芯片是公司 AI 战略的核心,Gemini2.0的训练和推理均完全依赖于这一芯片。谷歌已经在单一网络中连接了超过10万颗 Trillium 芯片,构建了全球最强大的 AI 超级计算机之一。

Trillium 芯片的技术规格在多个维度上取得了显著进步。与其前代产品相比,Trillium 在单颗芯片的峰值计算性能上提高了4.7倍,同时高带宽内存容量和芯片间连接带宽均实现了翻倍。更重要的是,芯片的能效提升了67%,这是在数据中心面临巨大的能耗压力下,尤其重要的指标。

在经济层面,Trillium 的表现也颇具影响力。谷歌表示,与前一代芯片相比,Trillium 在训练性能上的每美元投入提升了2.5倍,可能会重塑 AI 开发的经济模型。AI21Labs 作为 Trillium 的早期用户,已经报告了显著的提升。该公司的首席技术官巴拉克・伦茨表示,规模、速度和成本效益方面的进展都十分显著。

谷歌在 AI 超级计算机架构中部署 Trillium,展示了其对 AI 基础设施的综合整合方法。这一系统结合了超过10万颗 Trillium 芯片和每秒13拍比特的 Jupiter 网络,能够支持单个分布式训练任务在数十万个加速器之间的扩展。

Trillium 的发布将进一步加剧 AI 硬件领域的竞争,尤其是在 Nvidia 主导的市场中。尽管 Nvidia 的 GPU 仍是许多 AI 应用的行业标准,但谷歌的定制芯片方案在特定工作负载中可能具备优势。行业分析师指出,谷歌在定制芯片开发上的巨大投资,体现了其对 AI 基础设施日益重要性的战略判断。

随着技术的不断进步,Trillium 不仅仅意味着性能的提升,还预示着 AI 计算将变得更加普及和经济。谷歌表示,拥有合适的硬件和软件基础设施将是推动 AI 持续进步的关键。未来,随着 AI 模型日益复杂,基础硬件的需求将不断增加,谷歌显然意图在这一领域保持领先地位。

官方博客:https://cloud.google.com/blog/products/compute/trillium-tpu-is-ga

划重点:

🌟 Trillium 芯片性能提升四倍,显著降低能耗,推动 AI 训练效率。

💰 每美元训练性能提升2.5倍,可能重塑 AI 开发经济模型。

🔗 谷歌已部署超过10万颗 Trillium 芯片,构建全球最强 AI 超级计算机。