朱晏民专栏-AI军备赛 GPU晶片大厂最受惠

人工智慧结合自然语言模型的聊天机器人ChatGPT-3才爆红3个半月,Microsoft旗下OpenAI又于3月中旬再推出ChatGPT-4,让对话能力较前一代暴增8倍,且一次可处理的单词从3,000个提升至25,000个。为趁胜追击,Microsoft更一举结合云端服务Azure,将人工智慧应用到Windows作业系统,并于3月中旬正式发表Office 365 Copilot,借此加快使用者工作效率。

AI助理Copilot只要用自然语言对话就能控制办公室软体自动生成内容、协助处理工作:若用word写文章,只需简短提示,Copilot即能创建一个初稿,使用者再稍做修改即可。写好的word档也可自动生成PPT简报档。微软指出,目前使用PowerPoint简报软体的用户大约只用到该软体约3%的功能,未来透过Copilot,PowerPoint简报将会充分发挥剩余97%功能并使简报更加美轮美奂。另线上会议软体Teams未来也可透过Copilot而自动生成会议大纲与会议纪录。

Google3月中旬也宣布推出办公室软体Workspace的生成式AI新功能Magic Wand;未来Google文件也能运用AI产生主题内容、整理重点、产生图像与影片,让使用者大幅提升工作效率。

近期时代杂志以「人工智慧军备竞赛正改变一切」为封面标题并指出AI技术已达实用水准,且运算能力正以每6~10个月成长1倍的速度增长。随着愈来愈多企业投入生成式AI发展,不论AI大战未来由谁胜出都将带动GPU与伺服器的需求大幅增加。由于生成式AI必须投入巨量资料进行训练,为缩短训练就得采用大量高效能的GPU。

以ChatGPT背后的模型为例,其训练参数从2018年约1.2亿个至2020年已暴增至1,800亿个,目前GPU的使用量约达2万颗,未来将迈向3万颗。同时AI伺服器因需搭载更多的GPU,使得每台AI伺服器单价将超过30,000美元,远高于目前一般伺服器平均约7,000-10,000美元的单价。由于AI伺服器单价较高,预估2023年AI伺服器占全球伺服器出货量虽仅1%,惟产值却可达15%~20%,且2024~25年将可再攀升至20%~30%。

伺服器算力提高与GPU搭载数增加将使伺服器产生更多热能。Intel的Sapphire Rapids与AMD的Genoa CPU热设计功耗(TDP)约350瓦~400瓦,而每一颗GPU(Nvidia的A100/H100)将额外产生300瓦~700瓦的热能,此将使搭配的散热模组与电源供应器规格需一并提升,有效带动散热与电源相关业者产品均价的提升与毛利率的优化。

综合而言,在全球大厂积极进行生成式AI的军备竞赛下,GPU晶片大厂将是主要受惠者,其次则是AI伺服器与质量一并获得提升的相关零组件等。另由于AI晶片目前主要由Nvidia、AMD、Intel等传统处理器大厂所垄断,包含Apple、Tesla、Amazon、Microsoft、华为等科技巨头亦积极投入AI晶片的开发,由于它们的AI晶片设计能力与传统处理器大厂仍有一段差距,因此透过IP服务业者设计自家所需的特殊晶片(ASIC)将成为中长期重要趋势,IP矽智财的战略地位亦将与日俱增。