AI 帶動 集邦:液冷散熱技術航向新藍海

全球调研机构TrendForce认为,对于诉求更高效能的AI伺服器或机柜型方案,将明显拉升液冷散热方案渗透率;TrendForce预估,2025年随着GB200机柜方案正式放量出货,将带动整体AI晶片的液冷散热渗透率,从2024年的11%提升至2025年的24%。

TrendForce表示,观察全球AI市场发展动态,受惠2024年CSPs及品牌客群对建置AI基础设施需求强劲,全球AI伺服器(含搭载GPU、FPGA、ASIC等)出货年成长可达42%;2025年受云端业者及主权云等需求带动,出货量可望再成长约28%,推动AI伺服器占整体伺服器比例提高至近15%。中长期来看,预期在各种云端AI训练及推论应用服务推进下,2027年AI伺服器占比有机会逼近19%。

观察主要AI晶片供应商,NVIDIA表现一枝独秀,估计其2024年在GPU市场的市占率将接近90%,预期2025年上半Blackwell新平台将逐步放量,成为NVIDIA高阶GPU出货主流,透过搭载纯GPU(如B200)或整合自家Grace CPU的GB200等多元方案,以满足不同客群的需求。

其他业者如AMD、Intel及CSPs在积极发展新一代AI晶片趋势下,将推升2025年出货成长动能,进一步带动CoWoS、HBM出货量翻倍成长。对于诉求更高效能的AI伺服器或机柜型方案,也将明显拉升液冷散热方案渗透率。

TrendForce表示,近年来Google、AWS和Microsoft等大型美系云端业者皆积极于全球建置新资料中心并加快布建AI server。由于晶片算力升级,热设计功耗(TDP)将显著提升,如NVIDIA 新推出的GB200 NVL72机柜方案之TDP将高达约140kW,须采用液冷方案才能有效解决散热问题,预计初期将以水对气(Liquid-to-Air, L2A)方式为主流。

TrendForce预估,2025年随着GB200机柜方案正式放量出货,将带动整体AI晶片的液冷散热渗透率,从2024年的11%提升至2025年的24%。另外,就云端业者自研高阶AI ASIC来说,观察Google为最积极采用液冷方案的美系业者,其余云端业者仍以气冷为主要散热方案。

此外,在全球政府及监管机构对于ESG意识逐渐提升下,将加速带动散热方案由气冷转液冷形式发展,预期液冷方案渗透率逐年攀升,促使电源供应厂商、散热业者及系统整合厂等竞相投入AI液冷市场,形成新的产业竞合态势。