全球AI Server需求高漲 有望帶動年產值達1870億美元
全球AI Server需求高涨。联合报系资料照
根据集邦(TrendForce)最新发布「AI Server(伺服器)产业分析报告」指出,2024年大型CSPs及品牌客户等对于高阶AI Server的高度需求未歇,加上CoWoS原厂TSMC及HBM原厂如SK hynix、Samsung及Micron逐步扩产下,于今年第2季后短缺状况大幅缓解,连带使得NVIDIA(辉达)主力方案H100的交货前置时间(Lead Time)从先前动辄40-50周下降至不及16周,因此TrendForce预估AI Server第2季出货量将季增近20%,全年出货量上修至167万台,年增率达41.5%。
集邦表示,今年大型CSPs预算持续聚焦于采购AI Server,进而排挤一般型server成长力道,相较于AI server的高成长率,一般型server出货量年增率仅有1.9%。而AI Server占整体server出货的比重预估将达12.2%,较2023年提升约3.4个百分点。若估算产值,AI Server的营收成长贡献程度较一般型server明显,预估2024年AI Server产值将达逾1,870亿美元,成长率达69%,产值占整体server高达65%。
从AI server搭配AI晶片类型来看,来自北美CSPs业者(如AWS、Meta等)持续扩大自研ASIC,以及中国大陆本土业者如Ali、Baidu、Huawei等积极扩大自主ASIC方案,促ASIC server占整体AI server的比重在2024年将提升至26%,而主流搭载GPU的AI Server占比则约71%。
就AI Server搭载的AI晶片供应商分布来看,单看AI server搭载GPU,NVIDIA市占率最高、逼近9成,AMD(超微)市占率则仅约8%。但若加计所有AI server用AI晶片(包含GPU、ASIC、FPGA),NVIDIA今年市占率则约64%。
据集邦的调查,展望2025年市场对于高阶AI Server需求仍强,尤其以NVIDIA新一代Blackwell(包含GB200、B100/B200等)将取代Hopper平台成为市场主流,此亦将带动CoWoS及HBM等需求。以NVIDIA的B100而言,其晶片尺寸将较H100翻倍,会消耗更多的CoWoS用量,预估2025年主要供应商TSMC的CoWoS生产量规模至年底总产能可达550k-600k,成长率逼近8成。
另以HBM用量来看,2024年主流H100搭载80GB HBM3,到2025年NVIDIA Blackwell Ultra或AMD MI350等主力晶片,将搭载达288GB的HBM3e,单位用量成长逾3倍,随AI server市场需求持续强劲下,有望带动2025年HBM整体供给量翻倍成长。
全球AI Server需求高涨。记者吴康玮/摄影