NVIDIA 2025年推Blackwell Ultra、B200A HBM消耗量将再翻倍

以NVIDIA Hopper系列晶片为例,第一代H100搭载的HBM容量为80GB,而2024年放量的H200则跃升到144GB。

在AI晶片与单晶片容量的成长加乘之下,对产业整体的HBM的消耗量显著提升,2024年预估年增率将超过200%,2025年HBM消耗量将再翻倍。

据TrendForce近期调查供应链结果,NVIDIA规划降规版B200A给OEM客户,将采用4颗HBM3e 12hi,较其他B系列晶片搭载的数量减半。

TrendForce指出,即使B200A的HBM搭载容量较小,不影响整体市场的HBM消耗量,因为晶片选择多元化,有助于提高中小客户的采购意愿。

SK hynix、Micron甫于2024年第二季量产HBM3e,随着NVIDIA H200的出货,将带动整体HBM3e市场的消耗比重,预估2024年全年可超过60%。

进入2025年,受到Blackwell平台全面搭载HBM3e、产品层数增加,以及单晶片HBM容量上升带动,NVIDIA对HBM3e市场整体的消耗量,将进一步推升至85%以上。

HBM3e 12hi是2024年下半年市场关注的重点。预计于2025年推出的Blackwell Ultra将采用8颗HBM3e 12hi,GB200亦有升级可能,再加上B200A的规划,因此,预估2025年12hi产品在HBM3e的比重,将提升至40%,且有机会上修。

随着进入到HBM3e 12hi阶段,技术难度也提升,验证进度显得更加重要,完成验证的先后顺序可能影响订单的分配比重。

目前HBM的三大供应商产品皆在验证中,其中Samsung在验证进度上领先竞争对手,积极朝提高其市占率为目标。

基本上,今年产能大致底定,主要产能仍以HBM3e 8hi为主,因此,HBM3e 12hi产出增长主要仍贡献于2025年。