黄仁勋:GPU摩尔定律 辉达来延续

黄仁勋演讲重点COMPUTEX 2023即将登场,辉达(NVIDIA)创办人黄仁勋29日进行专题演讲。图/颜谦隆

「晶片教父」辉达(NVIDIA)创办人暨执行长黄仁勋来台为Computex 2023电脑展揭开序幕,他展现超级业务员的身段,秀出多款生成式人工智慧平台,并亲自介绍DGX新一代顶规GH200 AI电脑及Grace Hopper超级晶片等产品;黄仁勋强调,绘图处理器效能将在五年内提升1,000倍,「GPU的摩尔定律,将由辉达来延续」。

COMPUTEX 29日召开展前会,黄仁勋举办大型演说,吸引3,500名观众与会。黄仁勋表示,我们现在正处于一个全新运算时代的转捩点,加速运算和人工智慧已经被世界上几乎所有的运算和云端公司所接受。

黄仁勋在谈话中,更用流利的台语指出:「AI Server省很多钱!」,能用更小的面积、更大的功耗,取代现有的资料中心。

由于生成式AI的成长速度惊人,目前有40,000家大型公司和15,000家新创公司已采用NVIDIA技术,去年CUDA软体下载量更达2,500万次,包括Adobe、微软等均导入AI生成式应用。

黄仁勋29日亦重磅宣布具有庞大记忆体的人工智慧超级电脑DGX GH200,获Google Cloud、Meta与微软采用,该产品将256个NVIDIA Grace Hopper超级晶片连接成一个资料中心大小的GPU,并导入NVIDIA Grace CPU与H100 Tensor核心GPU集合在一个模组内。

此外,辉达的Grace Hopper超级晶片混合NVIDIA Grace CPU和Hopper GPU,并使用NVIDIA NVLink-C2C互连技术,提供高达900GB/s的频宽,较传统PCIe Gen5高7倍,采用台积电CoWoS先进封装制程,已经进入量产。

虽然AI伺服器价格高昂,以搭载H100的AI伺服器为例,预估要价4万美元,但黄仁勋强调,AI伺服器相较资料中心,有更强大的运算能力,更符合生成式AI训练任务,而且同样的功耗之下,能解省更多的空间,「The more you buy the more you save」(买愈多、省更多)。

黄仁勋也介绍MGX伺服器设计模组,提供系统制造商模组化架构以满足全球资料中心多样化的加速运算需求,如广达旗下的云达科技与美超微,都是首批使用设计模组厂商,其中伺服器规格支援100多种系统配置,用以加速处理AI、HPC及 Omniverse(协作与模拟平台)的任务。