千呼万唤!辉达杀手级AI晶片亮相 Blackwell GPU顶规曝光

各界关注的辉达(NVIDIA)年度盛会「GTC 2024」于18至21日在美国矽谷举行,执行长黄仁勋在19日凌晨4点发表主题演讲。(图/美联)

各界关注的辉达(NVIDIA)年度盛会「GTC 2024」18至21日在美国矽谷举行,执行长黄仁勋台湾时间19日凌晨4点发表主题演讲,过去他的谈话内容都被分析师视为未来1年的趋势。黄仁勋在大会上宣布,推出最新杀手级AI晶片Blackwell GPU,预计将于今年稍后发货。

Blackwell视为继H100后AI市场的最大武器,Blackwell晶片由2080亿个电晶体组成,是该公司先前晶片800亿个电晶体的两倍以上,所有这些电晶体几乎可以同时存取晶片上的记忆体,从而提高了生产效率。黄仁勋表示,「我们需要更大的GPU」。

Blackwell为B100、B200和GB200加速器提供动力,具有一对标线有限的运算晶片,它们透过 10TB/s NVLink-HBI互连通讯。

黄仁勋在加州举行的公司开发者大会上还宣布推出名为NIM的软体,将使人工智慧的部署变得更加容易,为客户提供另一个坚持使用Nvidia晶片的理由。辉达表示,公司不再只是一个晶片供应商,更像是一个平台供应商,就像微软或苹果一样,其他公司可以在平台上建立软体。辉达还透露,台积电和新思科技将采用辉达运算微影技术,两家公司整合了 Culitho W 软体系统。

●认识Blackwell

辉达每两年更新一次GPU架构,大幅提升效能。去年发布的许多人工智慧模型都是在Hopper架构上进行训练的,该架构使用H100等晶片,于2022年发布。各国公司和软体制造商仍在争先恐后地购买当前世代的H100和类似晶片。辉达在AI晶片市场占据主导地位,去年拿下约八成的全球市占率。

辉达表示,基于Blackwell的处理器(例如GB200)为AI公司提供了巨大的性能升级,其AI性能为20 petaflops,H100为 4 petaflops,额外的处理能力将使人工智慧公司能够训练更大、更复杂的模型。Blackwell GPU很大,将两个单独制造的晶片组合成一颗由台积电制造的晶片。它还将作为一个名为GB200 NVLink 2的完整伺服器提供,结合了72个Blackwell GPU和其他旨在训练AI模型的辉达元件。

亚马逊、谷歌、微软和甲骨文将透过云端服务出售GB200的存取权限。GB200 将两个B200 Blackwell GPU与一个基于Arm的Grace CPU配对。辉达表示,亚马逊网路服务将建构一个包含20,000个GB200晶片的伺服器丛集。

辉达表示,该系统可以部署27兆参数的模型。这甚至比最大的模型(例如 GPT-4)还要大得多,据报导GPT-4有1.7兆个参数。许多人工智慧研究人员认为,具有更多参数和数据的更大模型可以释放新功能。

辉达没有提供新GB200或它所使用的系统的成本。根据分析师估计,辉达Hopper的H100晶片成本在25,000美元到40,000美元之间,整个系统的成本高达200,000美元。

●辉达也宣布将在企业软体订阅中新增名为NIM的新产品。

NIM让使用旧版辉达GPU进行推理或运行人工智慧软体的过程变得更加容易,并将允许公司继续使用他们已经拥有的数亿个辉达GPU。辉达将与微软或 Hugging Face等人工智慧公司合作,确保他们的人工智慧模式能够在所有辉达晶片上相容运作。辉达表示,该软体将帮助人工智慧在配备GPU的笔记型电脑上运行,而不是在云端伺服器上运行。

今年是辉达暌违5年回归实体展,参展台厂包括广达、和硕、英业达、华硕、微星,国际大厂则有OpenAI、Microsoft、Amazon、Alphabet、Meta、甲骨文、美光科技、美超微、DELL和英特尔。台湾供应链相关概念股昨日受此推升表现红通通。