产业分析-从运算架构发展 剖析辉达与超微的市场竞局

辉达(NVIDIA)在模拟绘图、AI计算的晶片市场,建构了完整生态系,以85~90%市占遥遥领先第二名的超微(AMD)。图/路透、美联社

(更多产业分析请扫QR Code)

近期因为ChatGPT等通用人工智慧(GAI)应用火热,使得AI与其硬体布建成为市场焦点,其中又以绘图处理器(GPU)最受关注。以GPU市占率来看,辉达(NVIDIA)以85~90%遥遥领先第二名的超微(AMD)。摊开两边产品做比较,其实超微GPU的效能并没有落后太多,甚至在浮点运算的部分还超过辉达。那为何两者市占如此悬殊?关键在于辉达在模拟绘图、AI计算的晶片市场建构了完整的生态系。

辉达在2017年左右,推出以Tesla V100为基础的伺服器DGX及其主机板HGX产品,此后如A100与H100等陆续问世后,辉达仿照相同的作法,以资料中心需求为主要诉求,推出更多元、更大规模的伺服器方案,借此厚植其在伺服器产业生态的影响力。尽管当时超微乃至英特尔(Intel)的中央处理器(CPU)产品未受波及,但辉达在2021年宣布进军伺服器CPU后,情况便开始有所改变。

辉达在完成收购Mellanox,一口气补强资料处理器(DPU)、乙太网路与InfiniBand技术,如今Grace CPU也到位的情况下,几乎是补足了资料中心所需要的重要IC零组件的拼图,辉达也摇身一变,从晶片与显卡的供应商,变成重要的伺服器软硬体供应商。而市场对于辉达的印象,也不再只是专业的游戏显卡业者,俨然成为AI晶片甚至AI伺服器的代名词。

辉达在AI Model Training领域中,先以Tesla V100打下基础,再以Ampere架构为基础的A100进一步扩大了在该领域的领导地位,也使得全球主要的CSP业者纷纷向其采购GPU晶片甚至AI伺服器,在新兴的AI领域仿佛如入无人之境。若以市占率而言,辉达在全球AI Model Training市场地位近乎不可动摇。让积极想进军AI运算的超微,以及长年在伺服器与资料中心市场拥有领导话语权的英特尔,丧失了不少关注。再加上辉达也祭出Grace CPU产品,更显示争夺伺服器与资料中领导地位的野心。而超微虽然先后收购了赛灵思(Xilinx)与Pensando,也补强了FPGA与DPU的战力,但其产品线完整度仍不如辉达,要打造资料中心系统级方案恐怕也仍力有未逮。

除了上述以GPU领先的技术发动、产品线完整外,在软体整合,推出统一运算架构CUDA、模拟空间Omniverse等完整平台生态圈的建构,更是其竞争力强大的关键。由于辉达经营CUDA生态系统已有相当长的时间,从开发工具、API、函式库甚至自有的云端平台,提供开发者使用等一应俱全,加上辉达以CUDA架构投入AI领域的时间也远早于对手(2007年就发布),所以纵使超微收购FPGA大厂赛灵思,暂时仍不易撼动辉达在图像模拟乃至AI计算的领导地位。

超微当然也明白软体面与生态系在AI领域的重要性,除推出开发者开放平台ROCm外,近年来也不断诉求,客户所开发的软体成果能从辉达端轻松转移至自家的硬体平台上。但以现况来看,其成绩仍有努力的空间。超微要如何赶上辉达脚步,进而抢下其市占率? 以自身优势,建立平台与生态圈会是一个必要的努力过程,相信会看到超微更多积极的布建。

PC市场在进入后疫情时代后,其需求已不若当年因应远距教学与工作般火热,短期内在没有明确成长动能的情况下,辉达与超微势必得寻求其他市场来增补整体营收的成长动能。而目前大型语言模型(LLM)驱动的AI市场是明确的巨大机会,AI伺服器相关产业的议题讨论,其重要性只会日益提升。

由于超微投入AI领域的时间相对晚,辉达已站稳生态圈的脚步,预估在近三年内还是会居于明显的领先优势。尽管超微有不错的表现,推出了MI250/MI300系列产品线尝试努力追赶,但超微在GPU领域的生态系统不如辉达的CUDA来得完备且基础厚实。观察辉达的产品布局与发布频率,接替H100的产品应会在2024年发表,届时超微倘若还只是以GPU效能表现跟辉达比拚,而没有其他软体或生态圈投资等亮点,极有可能又会被拉开双方的差距。