AI晶片不止NVIDIA 科技巨頭與新創期望迎頭趕上
林宗辉╱北美智权报 编辑部
AI之所以能够如此盛行,背后有几个重要原因。首先,机器学习与深度学习演算法的重大进步,让AI系统能够从大量资料中自主学习、提炼出有价值的见解。这些算法的突破,例如卷积神经网路(CNN)在影像识别方面的卓越表现,大幅提升了AI的感知和理解能力。其次,网际网路时代累积的大量资料,为AI提供了丰富的"养分"。
据估计,全球每天产生的数据量高达2.5艾位元组(EB),这为AI模型的训练提供了庞大的资料基础。再者,运算能力的持续提升,尤其是GPU的广泛应用,让复杂的AI模型得以训练与执行。
以Nvidia的H100 GPU为例,其单精度浮点运算能力高达14 TFLOPS,是前代A100的3倍之多。最后,AI在各行各业的应用情境不断扩展,从智慧制造、自动驾驶到医疗诊断等,AI正在创造巨大的商业价值。据麦肯锡全球研究院估计,到2030年,AI可为全球经济贡献13兆美元的产出。
然而传统的晶片架构已经难以满足AI运算的特殊需求。与传统的程式设计模式不同,AI模型通常需要大量的平行运算和资料传输。这就催生了一系列专为AI设计的晶片,例如Nvidia的GPU、Google的TPU等。
这些AI晶片在矩阵运算、记忆体频宽等方面进行了最佳化,大幅提升了AI运算的速度和效率。以Google的TPU为例,其第一代产品就实现了在机器学习推论任务上,比现有的GPU和CPU快15到30倍。随着AI应用的爆发,AI晶片市场也迎来了爆发式成长。
目前,Nvidia凭借在GPU领域的多年积累,在AI晶片市场占据领先地位。Nvidia的GPU不仅为AI模型训练提供了强大的运算能力,也为AI开发者提供了完整的软体工具与生态系统,例如CUDA平台和cuDNN函式库。而Nvidia最新推出的GH200超级晶片,单精度浮点运算能力高达150 TFLOPS,更将进一步巩固其在AI晶片领域的优势。据Nvidia预估,到2024年,其资料中心业务每季收入有望突破150亿美元,AI晶片功不可没。
AI晶片的竞争格局
不过,Nvidia并非AI晶片市场的唯一玩家。科技巨头们纷纷意识到AI晶片的战略价值,开始投入巨资研发自己的AI晶片。亚马逊发表了名为Inferentia的AI推论晶片,单晶片可提供每秒128兆次的推论能力(TOPS),并支援多种机器学习框架。谷歌也推出了TPUv4,其单晶片峰值运算量高达200 TFLOPS,并透过封装技术,将多达4096个TPU晶片整合为一个EXA POD系统。脸书则发表了名为HANABI的AI训练ASIC晶片,号称是「世界上最快的AI训练晶片」。微软也正在打造自己的AI超级电脑,其中就包含了自行研发的AI晶片。此外,中国手机大厂华为,也推出自家的Ascend系列AI晶片,由于技术不成熟,且制程受限,目前主打卖点与Nvidia的A100性能相当,但性能不是最大卖点,而是该晶片是中国国产,可避开欧美的制裁手段。
传统晶片厂商也不甘示弱。英特尔收购了AI晶片新创Habana Labs,并推出了号称效能领先的Ponte Vecchio GPU,单GPU理论峰值高达600 TFLOPS。超微半导体则发布了Instinct系列GPU,MI300X的矩阵运算能力高达380 TFLOPS,此前斥资350亿美元收购赛灵思(Xilinx),也是意在强化AI与边缘运算领域的布局。
除科技巨头和传统晶片厂商,一批AI晶片的新创公司也正在异军突起。例如英国的Graphcore主打IPU(Intelligence Processing Unit),其二代产品GC200的峰值运算能力高达250 TFLOPS,获得了超过4.5亿美元的融资。美国新创Cerebras Systems则打造了有史以来最大的晶片——晶片级水冷系统WSE(Wafer Scale Engine),搭载了1.2兆个电晶体,让AI运算达到了前所未有的规模。Groq则由前Google工程师创立,专注于打造专用于推论的低功耗TPU,在ResNet-50基准测试中,其峰值推论能力高达21700 IPS/瓦。
随着各路玩家竞相投入,AI晶片市场呈现百家争鸣之势。据统计,2019年全球AI晶片初创公司数量已超过80家,总融资额超过35亿美元。根据研究机构预估,到2025年,ASIC晶片将在AI晶片市场中占据43%的比重,GPU占29%,FPGA占19%,CPU占9%。
AI晶片的未来发展
展望未来,AI晶片的创新仍在持续。除了运算能力的提升,AI晶片在架构、功耗、整合度等方面还有很大的最佳化空间。例如,通过先进的封装技术,多个AI晶片可紧密整合,大幅提升系统频宽和能效。AI专用的记忆体技术,如高频宽记忆体(HBM)、压缩记忆体等,也将得到更广泛的应用。
同时,随着5G和物联网的发展,AI晶片在边缘运算领域的应用前景十分广阔。例如自动驾驶汽车、智慧城市等情境,都需要在终端装置上进行即时的AI推论。为此,各家厂商纷纷推出了专用于边缘推论的AI晶片,如Nvidia的Jetson系列、Intel的Movidius、Google的Edge TPU等。这些终端AI晶片往往采用极低功耗设计,可嵌入各类终端装置,实现前所未有的智慧化应用。
除了技术创新,AI晶片的生态系统建设也至关重要。Nvidia的CUDA平台经过多年发展,已经形成了庞大的开发者社群和丰富的软体资源,这是其竞争力的重要保证。以CUDA平台为例,其生态系统涵盖了1400余个GPU加速应用,500多个高校和研究机构,以及逾20万名开发者。
其他厂商也纷纷效仿,围绕自己的AI晶片建构生态系统,争取开发者的支持。Google推出了基于TPU的TensorFlow深度学习框架,并开源了相关程式码;AMD收购了开源机器学习平台Xilinx;Intel推出了OneAPI开发工具套件,试图统一CPU、GPU和AI加速器的程式开发介面。未来,AI晶片市场很可能呈现"群雄逐鹿"的局面,不同的晶片在性能、功耗、成本等方面各有擅长,满足不同的应用需求。
结论:
AI晶片竞赛正如火如荼地展开,Nvidia凭借先发与生态优势暂时领先,但科技巨头、传统晶片厂商、新创公司构成了AI晶片的多元竞争格局。AI晶片的创新与生态系统建设,将很大程度上决定未来AI产业的发展方向。对于半导体公司来说,AI浪潮既是巨大的市场机会,也是不小的挑战。
MIT Techreview 中文版研究经理
财讯双周刊撰述委员
美国波士顿Arthur wood 投资顾问公司分析师
※如欲转载本文,请与北美智权报联络
延伸阅读&电子报订阅连结:
【更多内容请见《北美智权报》353期;欢迎订阅《北美智权报》电子报】