預估2024年北美四大雲端服務業者 對高階 AI 伺服器需求量將逾六成

根据TrendForce最新预估,以2024年全球主要云端服务业者(CSP)对高阶 AI 伺服器(包含搭载NVIDIA、AMD或其他高阶ASIC晶片等)需求量观察,预估美系四大 CSP 业者包括Microsoft、Google、AWS、Meta各家占全球需求比重分别达20.2%、16.6%、16%及10.8%,合计将超过6成,居于全球领先位置。 图/联合报系资料照片

根据TrendForce最新预估,以2024年全球主要云端服务业者(CSP)对高阶 AI 伺服器(包含搭载NVIDIA、AMD或其他高阶ASIC晶片等)需求量观察,预估美系四大 CSP 业者包括Microsoft、Google、AWS、Meta各家占全球需求比重分别达20.2%、16.6%、16%及10.8%,合计将超过6成,居于全球领先位置。其中,又以搭载 NVIDIA GPU 的 AI 伺服器机种占大宗。

NVIDIA 近期整体营收来源以资料中心业务为关键,主因其 GPU 伺服器占整体 AI 市场比重高达六至七成,惟后续仍须留意三大状况,可能使 NVIDIA 发展受限。其一,受美国禁令箝制,中国政府将更致力于 AI 晶片自主化,进一步来说,华为仍被 NVIDIA 视为可敬的对手。而 NVIDIA 因应禁令推出的 H20 等中国特规方案,性价比可能不及既有的 H100 或 H800 等,中国客户采用度可能较先前保守,进一步影响 NVIDIA 市占率。

其二,在具规模及成本考量下,美系大型 CSP 业者除 Google、AWS外,Microsoft、Meta 等亦有逐年扩大采自研 ASIC 趋势。其三,来自 AMD 的同业竞争,AMD 采高性价比策略,对标 NVIDIA 同级品,AMD 提供仅60~70%价格,甚至代表性或具规模客户能以更低价策略方式抢进市场,预期2024年尤以 Microsoft 为最积极采纳 AMD 高阶 GPU MI300 方案业者。

NVIDIA 在面临潜在隐忧下,亦更积极加速拓展其多元产品线,以因应不同客户群。2024年起将正式汰换 A100 产品,而以价格更高的H100系列为主轴。除 H100,预估自今年第2季末开始小量出货搭载更高 HBM3e 规格的H200产品。另预估 NVIDIA 未来在价格上将更积极采差别订价,H100 采部分折价策略,H200 应维持约 H100 原价格水位,以提供更高性价比方式,稳固云端 CSP 客户。

此外,NVIDIA 将采用 NRE(Non-recurring engineering Expense)模式,与 Meta、Google、AWS及OpenAI等厂商展开洽谈,并将目标扩及电信、车用及电竞客户。

此外,预期 NVIDIA 自2024年下半将推出新一代 B100 产品,相较H系列可望在效能上又有所提升,在 HBM 记忆体容量将高出 H200 约35~40%,以因应更高效能 HPC 或加速 LLM AI 训练需求。而在中低阶产品上,除 L40S 针对企业客户做边缘端较小型 AI 模型训练或 AI 推论外,另亦规划以 L4 取代既有 T4,作为云端或边缘 AI 推论应用。

值得注意的是,为避免2023年 GPU 供应不足问题,NVIDIA 亦积极参与 CoWoS 及 HBM 等扩建产能需求,预期今年第2季在相关原厂产能逐步开出后,原交付 Lead Time 平均约40周也将减半,逐步去除下游供应链因 GPU 短缺而使 AI 伺服器供应进度受阻问题。