资策会看AI伺服器2024有两大动能 台供应链将受惠

资策会产业情报研究所(MIC)预估,2024年AI伺服器有两大成长动能,有利台供应链营收。(图/freepik)

生成式AI热潮延烧,资策会产业情报研究所(MIC)今表示,光2023年AI伺服器已达全球伺服器总产值过半,预估2024年在大型语言模型(LLM)及「中小语言模型」两大成长动能下,今年全球AI伺服器出货量为194万台,有利于我国伺服器代工、电源供应器、远端控制晶片、ABF载板等产业链。

台湾伺服器产业出货量,原本即占全球伺服器超过8成,其中AI伺服器的生产组装代工更占9成。随着全球AI伺服器市场持续成长,其占整体伺服器出货比将从2023年12.4%,成长至2027年20.9%。

因此资策会MIC预估,2024年全球AI伺服器出货量为194万台、2025年达236万台,一路成长至2027年320万台,年复合成长率(CAGR)为24.7%。这其中包含价格昂贵并采用高阶GPU的AI训练伺服器,以及采用中低阶GPU、FPGA、ASIC的AI推论伺服器。

展望2024年,资策会MIC表示,AI伺服器成长的两大动能主要来自大型语言模型(LLM)的云端训练战场,以及新兴主战场「中小语言模型」。前者如Google将于今年推出Gemini,以及Amazon也在训练新的LLM。

后者中小语言模型会是2024年新兴竞争领域,许多更为客制化、符合运算效率的模型将陆续出现。MIC产业顾问魏传虔表示,此有利于我国伺服器代工、电源供应器、远端控制晶片、ABF载板、散热模组等产业链业者营收成长。