輝達新晶片若賣得好 陸行之:英特爾、超微就不用玩了

辉达(Nvidia)执行长黄仁勋表示,辉达已是「AI代工者」,希望成为「AI界的台积电」。美联社

辉达(NVIDIA) 2024年 GTC大会登场,执行长黄仁勋发表命名为 Blackwell 的新一代图形处理器(GPU)设计架构,资深半导体产业评论家陆行之在脸书分享五点看法,认为,「GB200 Superchip 把2颗B100及 72颗 ARM Neoverse V2 CPU cores 一起包起来,如果卖的好,Intel/AMD 的AI server CPU 就不用玩了」。

辉达今年的GTC大会,包括客户、合作伙伴和粉丝齐聚职业冰球联盟圣荷西鲨鱼队主场的SAP中心,会场足可容纳11,000人,执行长黄仁勋在 GTC 大会上发表命名为 Blackwell 的新一代图形处理器(GPU)设计架构。

Blackwell 新架构的晶片涵盖2,080亿个电晶体,是去年推出的H100 GPU 的2.6倍,大幅提升人工智慧(AI)的运算能力,黄仁勋表示,这款晶片在训练AI模型方面的效能是当前一代GPU的两倍,在「推论」方面,譬如ChatGPT回应查询的速度高达五倍。

黄仁勋指出,辉达GB200「超级晶片」,将结合两个 Blackwell GPU 和现有「Grace」架构的CPU。用户可选择将这些产品搭配新的网路晶片,其中一种使用专属的 InfiniBand 标准,另一种使用较常见的 Ethernet 协议。

陆行之在脸书上提出五点看法,他表示,「先看了40分钟,几个关键数字分享」,陆行之表示,「Blackwell 100 有 2,080亿电晶体 比 Hopper 100 的 800亿电晶体多1,280亿电晶体」;另外,「B100跟H100相同,都是用台积电4nm, 但是把两个晶片用封装结合,不是用微缩来加倍运算速度」。

陆行之认为,「GB200 Superchip 把2颗B100及 72颗 ARM Neoverse V2 CPU cores 一起包起来,如果卖的好,Intel/AMD 的AI server CPU 就不用玩了」;不过,他也点出,「不懂为何两颗B100(192+192=384HBM3e)+一颗 Grace CPU 的GB200 Superchip 怎么 HBM3e突然暴增到864GB? 理论上 CPU应该配LPDDR,但Nvidia说两组GB200有1.7TB HBM3e,是不是做ppt的小朋友搞错了」。

最后一个看法,陆行之说,「要建立32,000颗 B100 GPU 的AI datacenter,能提供645 exaFLOPS 的AI performance,大概要花12亿美元在B100 GPU上, 3亿美元系统,3~5亿 ARM CPU,还要近890颗的NVlink switch 晶片,也是用台积电4nm来制造,感觉20亿美元以上跑不掉」。