全球AI Server需求帶動 集邦估今年產值達1870億美元

根据TrendForce最新发布「AI Server(伺服器)产业分析报告」指出,今年大型CSPs及品牌客户等对高阶AI Server的高度需求未歇,加上CoWoS原厂台积电及HBM原厂如SK hynix、Samsung及Micron逐步扩产,今年第2季后短缺状况大幅缓解,连带使得NVIDIA(辉达)主力方案H100的交货前置时间(Lead Time)从先前40~50周下降至不及16周,TrendForce预估,AI Server第2季出货量将季增近20%,全年出货量上修至167万台,年增率达41.5%。

TrendForce表示,今年大型CSPs预算持续聚焦于采购AI Server,进而排挤一般型server成长力道,相较于AI Server的高成长率,一般型Server出货量年增率仅有1.9%。AI Server占整体Server出货的比重预估将达12.2%,较2023年提升约3.4个百分点。若估算产值,AI Server的营收成长贡献程度较一般型Server明显,预估2024年AI Server产值将达逾1,870亿美元,成长率达69%,产值占整体Server高达65%。

从AI Server搭配AI晶片类型来看,来自北美CSPs业者(如AWS、Meta等)持续扩大自研ASIC,及中国大陆本土业者如Ali、Baidu、Huawei等积极扩大自主ASIC 方案,促ASIC Server占整体AI Server的比重在2024年将提升至26%,而主流搭载GPU的AI Server占比则约71%。

就AI Server搭载的AI晶片供应商分布来看,单看AI Server搭载GPU,NVIDIA市占率最高、逼近9成,AMD(超微)市占率则仅约8%。但若加计所有AI Server用AI晶片(包含GPU、ASIC、FPGA),NVIDIA今年市占率则约64%。

据TrendForce的调查,展望2025年市场对于高阶AI Server需求仍强,尤其以NVIDIA新一代Blackwell(包含GB200、B100/B200等)将取代Hopper平台成为市场主流,将带动CoWoS及HBM等需求。以NVIDIA的B100而言,其晶片尺寸将较H100翻倍,会消耗更多的CoWoS用量,预估2025年主要供应商台积电的CoWoS生产量规模至年底总产能可达550k~600k,成长率逼近8成。

另以HBM用量来看,2024年主流H100搭载80GB HBM3,到2025年NVIDIA Blackwell Ultra或AMD MI350等主力晶片,将搭载达288GB的HBM3e,单位用量成长逾3倍,随AI Server市场需求持续强劲下,有望带动2025年HBM整体供给量翻倍成长。