谷歌芯片,全球第三了
如果您希望可以时常见面,欢迎标星收藏哦~
来源:内容由半导体行业观察(ID:icbank)编译自techspot,谢谢。
尽管谷歌是一家无晶圆厂设计公司,不向第三方公司出售芯片,但它是数据中心处理器业务中真正的巨头。山景城公司拥有重要的市场份额,由于最近人工智能的爆炸式增长,该市场份额有望进一步扩大。
Tech Insights 发布的新研究将谷歌评为数据中心领域最大的芯片设计公司之一。Tech Insights表示,凭借其在半导体供应链和 ASIC 市场等多个领域的独特专业知识,谷歌的市场份额可与英特尔和 AMD 等更知名的芯片制造商相媲美。
Tech Insights强调,谷歌在 2015 年推出的张量处理单元 ( TPU ) 开创了定制人工智能加速器的先河,这使得该公司超越了云竞争对手微软和亚马逊。就市场份额而言,只有英伟达和英特尔超越谷歌。
Tech Insights指出,谷歌去年向其全球数据中心运送了 200 万个 TPU。随着 TPU v4 的推出,该业务在 2021 年实现了显着增长,恰逢大型语言模型的兴起。Broadcom 是 Google 在 ASIC 设计方面的主要合作伙伴,它可能从 TPU v4 的推出中受益最多。
谷歌使用 TPU 来加速内部工作负载,而 Nvidia GPU 则处理云计算任务。Tech Insights报告称,到 2023 年,谷歌将拥有最大的 AI 加速器安装基数和最大的 AI 计算基础设施。该公司最近推出了第六代 TPU,称为Trillium,旨在增强 AI 超级计算机架构。
TI 还指出,随着云超大规模企业投资新的加速器和 Nvidia AI GPU,去年服务器市场的库存出现了重大调整。微软和亚马逊还分别使用 Azure Cobalt 和 Graviton 开发定制人工智能加速器。
Azure Cobalt 和 Graviton 都是基于 Arm 的定制处理器。谷歌最近推出了基于 Arm 的 Axion 处理器来补充其 TPU。根据 Bernstein Research 的报告,Arm 架构目前已用于全球 10% 的服务器,其中超过 50% 安装在亚马逊的 AWS 数据中心。
谷歌的第六代TPU
5 月 14 日星期二,谷歌发布了名为 Trillium 的第六代 TPU(张量处理单元)。
该芯片本质上是 TPU v6,是该公司在与 GPU 制造商英伟达以及云提供商微软和亚马逊(拥有自己的人工智能芯片)的人工智能战斗中的最新武器。
TPU v6 将继承 TPUv5 芯片,TPUv5 芯片有两种版本:TPUv5e 和 TPUv5p。该公司表示,Trillium 芯片是“迄今为止性能最高、最节能的 TPU” 。“
谷歌在加州山景城举行的 IO 会议上表示,Trillium 芯片将运行的人工智能模型将取代当前的 Gemini 大语言模型。
谷歌对该芯片进行了全方位的改进。该芯片的峰值计算性能提高了 4.7 倍。它还使高带宽内存、内部带宽和芯片间互连速度加倍。
谷歌发言人在给 HPCwire 的电子邮件中表示:“通过比较 Trillium TPU 与 Cloud TPU v5e 的每芯片峰值计算性能 (bf16),我们得到了 4.7 倍的数字。”
BF16 在 TPU v5e 上的性能为 197 teraflops,如果提高 4.7 倍,BF16 在 Trillium 上的峰值性能将达到 925.9 teraflops。
Google 的 TPU 早就应该有大幅的性能提升了。TPU v5e 的 197 万亿次浮点 BF16 性能实际上比 TPU v4 的 275 万亿次浮点有所下降。
Trillium 芯片具有下一代 HBM 内存,但没有具体说明它是 HBM3 还是 HBM3e,Nvidia 在其 H200 和 Blackwell GPU 中使用了 HBM3e。
TPU v5e 上的 HBM2 容量为 16GB,因此 Trillium 将拥有 32GB 的容量,HBM3 和 HBM3e 均有提供。HBM3e 提供最大的带宽。
服务器 Pod 中最多可配对 256 个 Trillium 芯片,与 TPU v5e 相比,芯片间通信提高了一倍。谷歌没有透露芯片间通信速度,但 可能是 3,200 Gbps,是 TPU v5e 1,600 Gbps 的两倍。
谷歌在一篇博客文章中表示,Trillium TPU 的节能效果也比 TPU v5e 高出 67%。
Trillium 正在取代 TPU 品牌名称,并将成为未来几代芯片背后的品牌。Trillium 是根据花的名字命名的,不要与 AWS 的 Trainium 混淆,Trainium 是一种人工智能训练芯片。
谷歌很快就发布了其第六代 TPU——距离该公司发布 TPU v5 芯片还不到一年。
TPU v4 于 2020 年推出 ,拖了 三年才发布 TPU v5。TPU v5 本身的开发也陷入了争议之中。
谷歌声称,人工智能代理帮助 TPU v5 芯片进行平面规划,速度比人类专家快约六个小时。
与 TPU v5 AI 设计项目相关的研究人员被解雇或离职,这些说法目前正在接受《自然》杂志的调查。
服务器 Pod 将托管 256 个 Trillium 芯片, AI 芯片的通信速度是类似 TPU v5 Pod 设置的两倍。
这些Pod可以组合成更大的集群, 并通过光纤网络 进行通信。舱体之间的通信速度 也将提高两倍,从而提供更大的 AI 模型所需的可扩展 性 。
谷歌表示:“Trillium TPU 可以扩展到数百个 Pod,通过每秒数拍比特的数据中心网络互连建筑级超级计算机中的数万个芯片。”
一项名为 Multislice 的技术将大型 AI 工作负载串联到大型集群中的数千个 TPU 上。这确保了 TPU 的高正常运行时间和能效。
该芯片具有第三代 SparseCores,这是一种更接近高带宽内存的中间芯片, 大多数 AI 运算都在这里进行。
SparseCores 使处理更接近内存中的数据, 支持 AMD、英特尔和高通正在研究的新兴计算架构。
通常,数据必须从内存移动到处理单元,这会消耗带宽并产生阻塞点。稀疏计算模型试图通过将处理单元移近内存集群来释放网络带宽。
谷歌表示:“Trillium TPU 可以更快地训练下一波基础模型,并以更少的延迟和更低的成本为这些模型提供服务。”
Trillium 还具有用于矩阵数学的 TensorCore。Trillium 芯片是为人工智能设计的,不会运行科学应用程序。
该公司最近发布了首款 CPU Axion,它将与 Trillium 搭配使用。
Trillium 芯片将成为谷歌自主研发的 Hypercomputer AI 超级计算机设计的一部分,该设计针对其 TPU 进行了优化。
该设计融合了计算、网络、存储和软件,以满足不同的 AI 消费和调度模型。“日历”系统满足任务何时开始的严格期限,而“弹性启动”模型则保证任务何时结束并交付结果。
超级计算机包含一个软件堆栈和其他工具,用于开发、优化、部署和编排用于推理和训练的 AI 模型。其中 包括 JAX、PyTorch/XLA 和 Kubernetes。
超级计算机将继续使用针对 GPU 优化的互连技术,例如基于 Nvidia H100 GPU 的 Titanium 卸载系统和技术。
预计 Trillium 芯片将在 Google Cloud 中提供,但谷歌没有提供提供日期。它将成为顶级产品,成本高于 TPU v5 产品。
云中 GPU 的高价格可能会让 Trillium 对客户有吸引力。已经使用 Vertex(Google Cloud 中的 AI 平台)中提供的 AI 模型的客户也可能会转向 Trillium。
AWS 的 Trainium 芯片也可用,而微软的 Azure Maia 芯片主要用于推理。
谷歌一直将其 TPU 作为 Nvidia GPU 的 AI 替代品。谷歌发布了研究论文,将 TPU 的性能与同类 Nvidia GPU 进行了比较。
谷歌最近宣布将搭载 Nvidia 的新 GPU、B200 和带有 Blackwell GPU 的专用 DGX 盒。
Nvidia 最近还宣布将以 7 亿美元收购 Run.ai。收购 Run.ai 将使 Nvidia 在运行 AI 模型时能够使其软件堆栈独立于 Google 的堆栈。
TPU 最初是为谷歌的本土模型设计的,但该公司正在努力 更好地 映射到开源模型,其中包括 Gemini 的分支 Gemma。
https://www.techspot.com/news/103109-google-now-world-third-largest-data-center-processor.html
https://www.hpcwire.com/2024/05/17/google-announces-sixth-generation-ai-chip-a-tpu-called-trillium/
点这里加关注,锁定更多原创内容
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3774期内容,欢迎关注。
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号ID:icbank
喜欢我们的内容就点“在看”分享给小伙伴哦