CoWoS 總產能持續看增 預估2025年增率逾七成

根据TrendForce研究,NVIDIA Hopper平台H100今年第1季短缺逐渐纾解,属同平台的新品H200于第2季后逐渐放量,第3季新平台Blackwell将进入市场,第4季推展到资料中心客户。但今年应仍以Hopper平台为主,包含H100、H200等产品线;根据供应链导入Blackwell平台进度,预计今年第4季才会开始放量,占整体高阶GPU比例将低于10%。

TrendForce表示,属Blackwell平台的B100等,其裸晶尺寸(die size)是既有H100翻倍,估计台积电(2330)2024年CoWos总产能年增来到150%,随着2025年成为主流后,CoWos产能年增率将达七成,其中,NVIDIA需求占比近半。HBM方面,随着NVIDIA GPU平台推进,H100主搭载80GB的HBM3,至2025年的B200将达搭载288GB的HBM3e,单颗搭载容量将近3~4倍成长。而据三大原厂目前扩展规划,2025年HBM生产量预期也将翻倍。

据TrendForce研究,以云端服务业者(CSP)业者导入现况来看,以Microsoft、Meta、AWS较为积极,预期2025年GB200方案合计出货量有机会达逾30,000柜,Google则可能倾向优先扩大自家TPU AI基础设施。Blackwell平台之所以备受市场期待,主要是有别于HGX或MGX单台AI伺服器,改推整柜式型态,整合自家CPU、GPU、NVLink及InfiniBand等高速网通技术。

其中,GB200又分为NVL36及NVL72,每柜分别搭载达36及72颗GPU,而NVL72将为NVIDIA主推组态,但因其设计较为复杂,估计2024年底将以NVL36先导入前期试炼,以求快速进入市场(Time to Market)。

据NVIDIA FY1Q25资料来看,企业客户、各国主权云(Sovereign AI)或Tier-2资料中心客群需求也明显提升。TrendForce表示,受限于2023年CoWoS及HBM供应不及,如NVIDIA优先将其高阶GPU提供给大型云端服务业者(Hyper CSP),以全球高阶AI server整体市场来看,2023年CSP合计对AI伺服器的需求量占比约65%。

至2024年上半年随GPU供货短缺获缓解后,今年来自伺服器品牌商如Dell、HPE的需求占比将扩大至19%;其他包含各地区Tier-2资料中心如CoreWeave、Tesla等,或各国主权云、超算中心专案等,合计需求占比将提高至31%,主因AI训练或应用过程中,可能涉及具敏感性或资料隐私安全等议题,预期未来此块市场也将扮演驱动AI伺服器出货成长的关键。