微軟針對Azure雲端服務打造兩款客製化晶片 對應人工智慧與通用運算加速需求
▲左为针对人工智慧工作执行,以及自动生成式人工智慧应用最佳化的Azure Maia AI加速器,右为针对通用云端运算需求的Azure Cobalt CPU
在微软Ignite 2023活动上,微软宣布于旗下Azure云端服务平台加入两款客制化设计晶片,分别是针对人工智慧工作执行,以及自动生成式人工智慧应用最佳化的Azure Maia AI加速器,以及透过Arm架构设计、针对通用云端运算需求的Azure Cobalt CPU。
至于在与OpenAI合作部分,则将针对Azure Maia AI加速器运作模式提供最佳化调整反馈,借此让此款加速器能缩短人工智慧模型训练时间,并且加快人工智慧应用布署脚步。同时,借由Arm架构打造Azure Cobalt CPU,更可进一步降低电力损耗,并且让伺服器运作效能大幅提升。
随着微软在Azure云端服务导入客制化设计晶片,预期将使其云端服务能以更高效率运作,并且让整体电力损耗明显降低。同时,微软也强调针对Azure Maia AI加速器打造专属机架设计,并且搭配专属水冷系统设计,借此更有效率地带走运作时所产生热能。
▲微软针对Azure Maia AI加速器打造专属机架与水冷散热结构设计
而为了进一步推动其云端服务执行效能,微软也宣布推出以NVIDIA H100 Tensor Core GPU为设计,并且先以预览形式提供使用的NC H100 v5虚拟机器系列服务,让使用者能借由Azure云端服务平台更容易取得运算效能、应用弹性。
此外,微软也说明接下来将在明年增加NVIDIA H200 Tensor Core GPU规格选项,借此提供更高运算效能与更短执行反应时间,同时也能支撑大型自然语言模型运算需求,让更多业者能透过Azure服务平台取得更高运算资源。
微软同时也宣布与AMD合作,预计将以CDNA 3加速架构打造、配置高达192GB HBM3记忆体设计的Instinct MI300X GPU加入Azure云端服务平台,并且透过虚拟机器形式对应更高人工智慧运算执行速度,以及更大人工智慧运算模型训练与推论需求,更可让使用者以实惠价格透过云端取得更高算力。
《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》