《科技》TrendForc科技业预测:晶片先进制程利用率明年仍俏(3-2)

值得注意的是,由于AI晶片迭代持续推升算力,使得相应的热设计功耗(TDP)持续增加,如NVIDIA A100最高TDP约为400W,进入H100增至700W,下一代Blackwell系列则将突破1,000W大关。越来越高的TDP需要更多Power IC协助管理功率传输、降低转换的能源损耗,进而提高整体效能。TrendForce预估,AI GPU所需Smart Power Stage(SPS) 数量随着产品迭代更新急遽增长,将带动相关需求在2023至2025年期间暴增2至3倍,成为支撑成熟制程产能的一项新动能。

尽管现阶段AI GPU Power相关供应商仍以欧美日IDM、设计公司为主,台系厂商仍希望打入供应链争取市占。此外,基于地缘政治考量,AI GPU Power供应商的转单亦有望成为明年支撑部分台系晶圆代工成熟产能利用率之动能。

五、面板级封装与AI晶片结合的可能。FOPLP的产品应用主要可分为PMIC及RF IC、消费性CPU及GPU、AI GPU等三类。其中, PMIC及RF IC采用chip-first技术,原本主要由OSAT业者深耕,后续随着制程授权商兴起,推动IDM及面板业者加入,扩大量产规模; 消费性CPU及GPU采用chip-last技术,由已累积生产经验及产能的OSAT业者开发,预估产品量产时间最早落在2026年;AI GPU则采用chip-last技术,由晶圆代工业者主导,在晶粒尺寸扩大及封装颗数增加的趋势下,寻求将原本的CoWoS封装由wafer level扩大至panel level,产品量产时间最早为2027年。而FOPLP的发展尚面临挑战,包括技术瓶颈、面板尺寸多元等将分散设备研发量能,及业者倾向待回收FOWLP产能的投资后再投入FOPLP的产能投资。

六、2025年全球AI 伺服器市场及产业链关键发展动向预测。观察全球AI市场发展动态,受惠2024年CSPs及品牌客群对建置AI基础设施需求强劲,全球AI伺服器(含搭载GPU、FPGA、ASIC等)出货年成长可达42%;2025年受云端业者及主权云等需求带动,出货量可望再成长约28%,推动AI伺服器占整体伺服器比例提高至近15%。中长期来看,预期在各种云端AI训练及推论应用服务推进下,2027年AI伺服器占比有机会逼近19%。

观察主要AI晶片供应商,NVIDIA表现一枝独秀,估计其2024年在GPU市场的市占率将接近90%,预期2025年上半Blackwell新平台将逐步放量,成为NVIDIA高阶GPU出货主流,透过搭载纯GPU(如B200)或整合自家Grace CPU的GB200等多元方案,以满足不同客群的需求。其他业者如AMD、Intel及CSPs在积极发展新一代AI晶片趋势下,将推升2025年出货成长动能,进一步带动CoWoS、HBM出货量翻倍成长。对于诉求更高效能的AI伺服器或机柜型方案,也将明显拉升液冷散热方案渗透率。(3-2)