相当于5个H100!英伟达最新王牌B200让全世界用上AI?

出品丨本站科技《态度》

作者丨赵芙瑶

编辑丨丁广胜

皮衣教主又杀回来了!

在今日的英伟达GTC(GPU技术大会)上,黄仁勋再次炸场,每个产品的发布与更新都让现场掌声连连。英伟达新一代Blackwell架构来了;“一个顶五个”的B200来了;“让全世界用上AI”的AI推理微服务NIM也来了!让我们一起来回顾这一场吸引全球目光、号称标志着“新工业革命”引擎诞生的发布会。

1. 黄仁勋:新时代的乔布斯

有了生成式AI的加持,黄仁勋此次的演讲像是一场科幻电影,无论是现场播放的由Backwell制作的影像片段,还是黄教主现场与九个机器人的互动,都让现场的科技感、沉浸感、未来感直线拉满。

去年黄仁勋喊出 AI 的“iPhone 时刻”已经到来,生成式 AI 不断开始改写我们的日常生活,而今天的一系列发布,更是表明改写的速度正在指数级上升。

英伟达高级科学家 Jim Fan 现场调侃黄仁勋是新的泰勒 · 斯威夫特,因为现场人满为患如演唱会一般,然而黄教主用两个小时的时间,让观众明白了或许他才是新时代的乔布斯。

2. 性能翻30倍的世界最强GPU来了

黄教主带来了第一张王牌就是Blackwell架构,黄仁勋称这颗芯片的名字来自数学家、博弈论家、概率论家 David Blackwell。基于Blackwell架构的Blackwell B200 GPU在性能上翻了30倍,带来了惊人的计算能力。

Blackwell架构下的计算芯片拥有1040亿个晶体管,比上一代GH100 GPU的800亿个晶体管实现了重大突破。而且,Blackwell B200并非传统意义上的单一GPU,而是由两个Blackwell GPU组合而成。通过10 TB/s NV-HBI(Nvidia高带宽接口)连接,确保每个芯片都能独立运行。

因此,B200实际上拥有2080亿个晶体管,能够提供高达20 petaflops的FP4算力。其中,两个GPU与单个Grace CPU相结合的GB200可将LLM(大语言模型)的推理效率提升30倍。

在GPT-3 LLM基准测试中,GB200的性能是H100的七倍,训练速度提高了4倍。第二代Transformer引擎、第五代NVLink高速互联、Ras Engine等技术的引入,更是让英伟达的产品在AI计算领域更加“所向披靡”。

3. GB200超级芯片:创造历史的推理加速

GB200超级芯片是两个B200 GPU与Grace CPU结合的产品,成为推理加速的新“核弹”。它不仅可以加速推理,同时在成本和能源消耗上也实现了突破。

黄仁勋在现场介绍道,B200采用双芯片设计,晶体管数量达到2080亿个,单GPU AI性能达20 PFLOPS。两个B200 GPU与Grace CPU结合组成最强AI芯片GB200,通过900GB/s的超低功耗NVLink芯片间互连技术连接。在标准的1750亿参数GPT-3基准测试中,GB200的性能是H100的7倍,提供的训练算力是H100的4倍。

另外,英伟达此次还带来了全新加速计算平台DGX GB200 NVL72,搭载18个GB200,单机架即可达到每秒千万亿次级别的精度计算。相比72个H100,GB200 NVL72推理性能提升30倍,成本和能耗降低25倍。一个GB200 NVL72机柜可训练27万亿参数的模型,足以支持15个GPT-4模型。

黄仁勋表示,DGX Grace-Blackwell GB200已经超过1 Exaflop的算力。这意味着什么呢?

让我们通过一个简单的比喻来说明其水平:

假设你有一台普通的笔记本电脑,它的算力是1 Gigaflop(即每秒10的9次浮点运算)。如果你的笔记本电脑每秒能够完成1次浮点运算,那么完成10^18(即1 Exaflop)次浮点运算需要多长时间呢?

1 Exaflop = 10^18 Flops

如果你的笔记本电脑每秒完成1 Flop,那么完成10^18 Flops就需要:

(10^18 Flops) / (1 Flop/second) = 10^18 seconds

换算成年份:

10^18 seconds / (60 seconds/minute * 60 minutes/hour * 24 hours/day * 365 days/year) ≈ 31.7亿年

换句话说,一台每秒完成1 Flop的笔记本电脑,要花费大约31.7亿年的时间才能完成1 Exaflop的运算量。

所以1 Exaflop的庞大程度,可以说是一鸣惊人了。

4.推理微服务NIM:AI部署的新标杆

NVIDIA推出的AI推理微服务NIM成为世界AI的入口,为用户提供了部署和管理AI模型的平台。通过NIM,用户可以体验各种AI模型和应用,同时保留对知识产权的完全控制。黄仁勋表示,NVIDIA正在帮助企业和应用程序对模型进行微调或定制。

NIM可以使开发者能够将部署时间从几周缩短至几分钟,为语言、语音、药物发现等领域提供行业标准API,让开发者能够利用在自己基础设施中的专有数据快速构建AI应用,而不必依赖云服务器。

英伟达希望通过这些服务吸引购买英伟达服务器的客户注册英伟达企业版NVIDIA AI Enterprise 5.0,每个GPU每年收取4500美元的费用。企业可以选择在亚马逊云科技(AWS)、谷歌云、Azure、Oracle Cloud Infrastructure等云平台上部署这些微服务。

相较于新AI模型的初始训练,推理过程所需的计算能力较少。对于那些希望自行运行AI模型,而不是购买AI结果作为服务的企业来说,NIM将成为一款不错的选择。

“在我原本调用OpenAI的代码中,我只需替换一行代码,将其指向从英伟达获取的NIM即可。”一位开发者表示。

5.英伟达的愿景:引领新工业革命

黄仁勋的野心究竟有多大?在他看来,英伟达站在计算科学和物理等一切科学的交叉点,成为新工业革命的引擎。这是英伟达的使命,也是他心中英伟达的定位。

正如黄仁勋在开场白中说的那样,我们见证了计算机技术的革命以及人工智能的崛起。从过去到现在,我们经历了无数里程碑,包括首台DGX-1超级计算机的诞生、CUDA的出现以及生成式AI的发展。

如今,皮衣教主黄仁勋已经在生成式AI领域拔得头筹,带领着下一场工业革命的开启。

相关阅读:

性能可提升30倍,英伟达发布全新构架,今年上市,一套或售20万美元

3月19日消息,当地时间周一,英伟达在美国加州圣何塞(San Jose)举办的全球开发者大会上,隆重发布了最新一代人工智能专用GPU芯片以及运行人工智能模型的软件,意图进一步巩固其作为人工智能领域首选供应商的地位。

英伟达推出的新一代人工智能GPU架构命名为Blackwell,首款基于该架构的GB200芯片预计将在今年晚些时候推出。

在处理大型语言模型(LLM)推理工作负载时,GB200性能可提升30倍,同时在成本和能效上也有显著提升。英伟达称,与H100相比,“GB200能将成本和能耗降低至多达25倍”。

尽管当前市面上如Hopper架构的H100芯片等旧款产品依然供不应求,英伟达仍通过推出更高性能的新芯片来吸引客户,鼓励他们持续下单。

自2022年底,随着OpenAI推出聊天机器人ChatGPT,掀起了一股人工智能热潮,英伟达股价随之飙升五倍,营业收入也增长了逾两倍。英伟达的高性能GPU对于训练和运行大型人工智能模型至关重要。像微软、Meta这样的科技巨头,都斥资几十亿美元购买这种芯片。英伟达首席执行官黄仁勋在大会上表示:“Hopper架构固然出色,但我们追求的是更加强大的GPU。”

英伟达股价在周一盘后交易中微跌超过1%。

为了让客户在面对日益增多的竞争产品时更倾向于选择英伟达芯片,公司还推出了一款名为NIM的付费软件,使得部署人工智能变得更加简单。

英伟达高管表示,公司正从单一芯片供应商转型为类似于微软或苹果那样的平台提供者,其他公司可以在其平台上开发软件。

黄仁勋坦言:“Blackwell不仅仅是一款芯片,它代表的是一个平台。”

英伟达企业计算部门副总裁马努维尔·达斯(Manuvir Das)在接受采访时表示:“最畅销的商业产品仍是GPU,软件则是为了帮助用户以不同的方式使用GPU。”他补充道:“当然,我们依然在致力于产品的创新。但现在,我们真正实现了转变,已经发展出了自己的商业软件业务。”

英伟达新软件能让在所有英伟达GPU上运行程序变得更加简便,即便是对于那些老款GPU,它们虽更适合于部署人工智能应用,而非开发,也能轻松应对。

达斯说:“如果您是开发者,手中有一个备受期待的模型,希望能让更多人采用,只需将其部署在NIM上。我们承诺将兼容所有英伟达GPU,确保模型能触及广泛用户群。”

Hopper架构的继任者Blackwell

每隔两年,英伟达都会更新其GPU架构,从而实现性能的显著跃升。在过去一年中,众多发布的人工智能模型均在2022年宣布的Hopper架构基础上进行训练,此架构涵盖了包括H100在内的多款芯片。

据英伟达介绍,基于Blackwell架构的GB200芯片将为人工智能领域公司带来性能上巨大的飞跃,其人工智能计算能力可达每秒20千万亿次,远超过H100芯片的每秒4千万亿次。

这一强大的计算能力将使企业得以训练规模更大、复杂度更高的人工智能模型。

GB200芯片还特别集成了英伟达的高性能Transformer推理引擎,该技术专为运行基于Transformer架构的人工智能设计,正是构成流行聊天机器人ChatGPT核心技术的关键部分。

Blackwell架构的GPU芯片体积庞大,实际上是由两块独立制造的芯片集成于一块台积电代工的芯片上。英伟达同时推出了配套的GB200 NVLink 2服务器,内置72块Blackwell架构GPU,以及其他用于人工智能模型训练的专业组件。

知名云服务提供商,包括亚马逊、谷歌、微软及甲骨文等,均将提供GB200芯片的云服务。每套GB200系统由两块基于Blackwell架构的B200 GPU和一块基于ARM架构的Grace CPU组成。英伟达透露,亚马逊网络服务(AWS)计划建立一个包含2万套GB200系统的超级计算集群。

英伟达表示,亚马逊的服务器集群能够部署达到27万亿个参数的人工智能模型,规模远超目前已知最大的GPT-4模型,后者拥有1.7万亿个参数。许多人工智能研究人员认为,拥有更多参数和数据的超大模型能够展现出更为强大的能力。

虽然英伟达未公布GB200芯片及其系统的具体售价,但根据分析师估计,参照Hopper架构H100芯片的售价范围(每块约2.5万至4万美元),一整套GB200系统的成本可能高达20万美元。

英伟达的推理微服务

英伟达还宣布,在其企业软件订阅服务中新增了一款名为NIM的产品,即英伟达推理微服务(NVIDIA Inference Microservices)的缩写,旨在简化使用旧型号GPU进行人工智能推理和软件运行的过程,使企业能够继续利用现有的数亿块英伟达GPU资源。相较于训练新的人工智能模型,推理计算所需的计算资源更少,因此,企业可以通过NIM更加便捷地运行自己的人工智能模型,而不必依赖于OpenAI等公司提供的计算服务。

作为其战略的一部分,英伟达鼓励购买其服务器的客户订阅英伟达企业服务,并按每块GPU每年4500美元的标准收取许可费。此外,英伟达将与微软、Hugging Face等领先的人工智能企业合作,确保它们开发的人工智能模型能够在所有兼容的英伟达芯片上顺畅运行。开发者可通过NIM服务,无需复杂配置,就能在自己的服务器或基于云的英伟达服务器上高效地运行模型。

“在原本调用OpenAI服务的代码中,仅需替换一行代码,即可将其连接至英伟达提供的NIM服务,”达斯解释说。

英伟达表示, NIM软件不仅能在云服务器上运行,还能使配备英伟达GPU的笔记本电脑上顺畅运行人工智能应用,进一步扩展了NIM服务的应用场景。(辰辰)