技嘉首發 推出支援NVIDIA HGX H200平台AI旗艦伺服器
技嘉子公司技钢科技今日宣布推出两款新的8-GPU伺服器,这些伺服器支援NVIDIA HGX H200平台,该平台非常适用于大型AI数据集、科学模拟及其他高记忆体需求等工作负载。 技钢/提供
在生成式人工智慧与科学运算的发展之下,大规模数据集的需求日益增加,领先业者无不盼以强大算力驱动科技。因应客户的需要,做为生成式人工智慧伺服器与先进冷却技术领导者,技嘉(2376)子公司技钢科技15日宣布推出两款新的8-GPU伺服器,这些伺服器支援NVIDIA HGX H200平台,该平台非常适用于大型AI数据集、科学模拟及其他高记忆体需求等工作负载。
G593 AI旗舰伺服器系列在GPU冷却的设计上独占鳌头,在紧凑的5U机箱中实现稳定且高要求的效能,并提供强大的气流以解决惊人运算密度所带来的热能。
NVIDIA H200 Tensor核心 GPU与禁得起考验的GIGABYTE G593 8-GPU基板伺服器系列完美结合。相较于NVIDIA H100 Tensor 核心 GPU,NVIDIA H200 GPU在记忆体容量和频宽上有显著提升,具高达141GB的HBM3e记忆体和4.8TB/s的记忆体频宽,分别增加了1.7倍的记忆体容量和1.4倍的吞吐量。
新款技嘉GPU AI旗舰伺服器包含G593-SD1-AAX3:支援第5代Intel Xeon 可扩充处理器,及G593-ZD1-AAX3:支援AMD EPYC 9004系列处理器,多达96个CPU核心。
技嘉表示,透过精密的调整与设计,除了CPU平台之外,这些新款伺服器有着类似的布局和规格,以适应加速运算的各种应用需求。这些伺服器将列在NVIDIA合格系统目录中,更包括先前四款已通过NVIDIA认证系统™的G593 AI旗舰伺服器系列,有极佳的功能性与效能表现。
技嘉指出,G593 AI旗舰伺服器系列具备高水准的网路和储存能力。支援最多 8个U.2 Gen5 NVMe SSD,该系列可以使用NVIDIA GPUDirect Storage(NVIDIA Magnum IO技术之一)快速处理数据,实现从GPU记忆体到储存的直接路径,提升频宽且降低延迟。为了连接丛集中的其他伺服器或进行资料中心外的数据传输,提供了12个扩展插槽,支援透过NIC或DPU进行NVIDIA InfiniBand或乙太网路连接。此外,更配置了4+2 3000W冗余电源,提供充足的电力和可靠的持续运行。
近期AI带来科技的飞速进步,从企业到学术界都在引颈期盼最新发展,大型运算丛集的设计对人工智慧的发展就显得至关重要。技嘉自去年推出了其机架级解决方案GIGAPOD,并使用NVIDIA HGX系统的部署大获成功。目前,GIGAPOD均使用G593 AI旗舰伺服器系列来整合NVIDIA HGX H100。随着产品线扩展支援至NVIDIA H200 GPU,GIGAPOD将帮助客户实现更高的效能和效率,大举加速运算流程。