《科技》AWS牵手NVIDIA 助攻生成式AI创新

NVIDIA与AWS将挹注NVIDIA与AWS技术的精华,包含NVIDIA新一代GPU、CPU与AI软体的最新多节点系统,以及AWS的Nitro System先进虚拟化与安全平台、Elastic Fabric Adapter(EFA)互连介面和UltraCluster扩充服务,以提供理想的环境来训练基础模型与打造生成式AI应用。

双方保持长久的合作关系,合力推动生成式AI时代。此次扩大合作为使用机器学习(ML)的先驱们提供所需的运算效能,协助发展最尖端的技术。

此次双方合作将大幅加速所有产业应用生成式AI的发展,合作内容包括:

一、AWS成为第一家将配备多节点NVLink技术的NVIDIA GH200 Grace Hopper Superchip超级晶片导入云端环境的云端服务供应商。NVIDIA GH200 NVL32多节点平台运用NVIDIA NVLink与NVSwitch技术连结32个Grace Hopper Superchip超级晶片,组合成一个执行个体。此平台将以Amazon Elastic Compute Cloud(Amazon EC2)执行个体的型态上线营运,连结Amazon的强大网路(EFA),加上先进虚拟化(AWS Nitro System)与超大规模丛集(Amazon EC2 UltraClusters)的支援,让共同客户能扩充至数千颗GH200超级晶片的规模。

二、NVIDIA与AWS将联手在AWS上推出NVIDIA DGX Cloud这项AI训练即服务(AI-training-as-a-service)方案。此方案将是首个配置GH200 NVL32的DGX Cloud方案,为开发者提供单一执行个体中最多的共用记忆体。AWS云端上运行的DGX Cloud将可加速含有超过1兆参数的尖端生成式AI与大型语言模型的训练。

三、NVIDIA与AWS正合作推动Project Ceiba,联手设计全球最快的GPU驱动AI超级电脑,配备GH200 NVL32与Amazon EFA互连技术的大规模系统由AWS代管,为NVIDIA研发团队提供服务。这部开创先河的超级电脑配置16,384颗NVIDIA GH200超级晶片,能处理65 exaflops速度等级的AI运算,将推动NVIDIA进行全新生成式AI的创新。

四、AWS将再推出三款Amazon EC2执行个体:P5e执行个体配置NVIDIA H200 Tensor Core GPU,瞄准大规模与尖端生成式AI及HPC高效能运算工作负载;以及分别配置NVIDIA L4 GPU与NVIDIA L40S GPU的G6 与G6e执行个体,能运行包括AI微调、推论、绘图、以及影片工作负载等广泛应用。G6e执行个体特别适合用来开发3D工作流程、数位分身、以及其他使用NVIDIA Omniverse的应用,用来连结与打造各种生成式AI的3D应用。