加速AI普及 美光HBM3E記憶體正式量產
美光宣布量产8层堆叠 24GB HBM3E,预计于2024年第2季出货。
美商记忆体美光科技,今宣布其8层堆叠 24GB HBM3E解决方案已正式量产。美光HBM3E解决方案将应用于 辉达 H200 Tensor Core GPU,预计于 2024年第2季出货。美光强调将挟此产品优势,取得业业界领先地位。
随着AI需求不断提升,能够应付与日俱增工作负载的记忆体解决方案变得更加关键。美光强调该公司推出的 HBM3E 解决方案具备卓越效能, 每脚位传输速率超过 9.2 Gb/s,记忆体频宽达 1.2 TB/s 以上,为 AI 加速器、超级电脑与资料中心提供如闪电般快速的资料存取速度。
与竞争产品相比,美光强调HBM3E功耗降低了30%,且为了支援日益增长的 AI 需求和应用,HBM3E 能以最低的功耗提供最大的传输量,进而改善资料中心重要的营运成本指标。
再者HBM3E具备可扩展性。美光表示,HBM3E目前提供24GB容量,使资料中心可无缝扩展其AI 应用,无论是用于训练大型神经网路还是加速推理任务,美光解决方案都能为其提供所需的记忆体频宽。
美光执行副总裁暨事业长 Sumit Sadana 表示:「美光在 HBM3E 此一里程碑上取得了三连胜:领先的上市时间、业界最佳的效能、杰出的能源效率。AI 工作负载亟需记忆体频宽与容量,美光 HBM3E 和 HBM4 产品蓝图领先业界,针对 AI 应用提供完整的 DRAM 和 NAND 解决方案,支援未来 AI 显著的成长。」
透过其 1β 技术、先进直通矽晶穿孔 (TSV) 和其他创新,美光得以发展领先业界的 HBM3E 设计,并实现具差异性的封装解决方案。作为记忆体领域中 2.5D/3D 堆叠和先进封装技术的领导者,美光相当自豪成为台积电 3DFabric 联盟的合作伙伴,共同形塑半导体和系统创新的未来。
美光也规画将在2024年3月推出12层堆叠 36GB HBM3E 的样品,相较于竞品,效能可达 1.2TB/s 以上并具备优异的能源效率,能进一步延续其业界领导地位。此外,美光也将成为辉达 GTC AI 大会的赞助商,该大会将于 3月18日开始,届时美光将更详细地分享其领先业界的 AI 记忆体产品组合与蓝图。