NVIDIA宣布推出搭載H200 GPU的HGX H200運算平台 加速人工智慧執行效能

NVIDIA在SC23超算大会上宣布推出采用H200 Tensor Core GPU的HGX H200运算平台,借此强化各类云端执行个体,并且推动人工智慧执行效能。

相较先前推出的H100,NVIDIA表示H200整合HBM3e记忆体,借此对应更高资料处理吞吐流量,并且能配合GPU加快人工智慧运算与大型自然语言模型执行效率。透过总容量达141GB的HBM3e记忆体,以及每秒传输速率可达4.8TB的表现,相比过往推出的A100将能透过翻倍记忆体容量与2.4倍记忆体频宽加快人工智慧运算效能。

而借由沿用H100相容软体更新,NVIDIA强调将使H200执行诸如NVIDIA TensorRT-LLM、Meta Llama 2等大型自然语言模型能有翻倍效率表现。

至于采用H200的HGX H200主机板,则可对应四路或八路配置,并且相容前一代HGX H100,意味将能直接透过更换进行升级,另外也能搭配Grace Hopper Superchip GH200提高整体算力表现,并且能布署于云端、地端、混合云,或是边缘环境使用,预计由永擎电子、华硕、Dell、Eviden、技嘉、HPE、鸿佰科技、联想、云达、美超微、纬创资通与纬颖科技推出应用设计伺服器产品,预计会在2024年第二季于全球市场提供。

《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》