联想与英伟达合作推出混合AI解决方案 提供量身定制的生成式AI

3月19日,GTC(GPU Technology Conference)2024上,联想集团与NVIDIA宣布合作推出全新混合人工智能解决方案,帮助企业和云提供商获得在人工智能时代成功所需的关键的加速计算能力,将人工智能从概念变为现实。

此举将推进联想集团AI for All的愿景,并为下一代大规模生成式人工智能的创新架构迅速进入市场提供了支持。联想混合解决方案已经针对运行 NVIDIA AI Enterprise软件进行了优化,以实现安全、受支持且稳定的生产级AI,现在还将为开发人员提供刚刚发布的NVIDIA微服务,包括 NVIDIA NIM 和 NeMo Retriever。

在大规模高效增强人工智能工作负载方面,联想发布了ThinkSystem人工智能产品组合的扩展,其中包括两款全新强大的8路NVIDIA GPU系统,这两款系统专为提供海量计算能力和无与伦比的能效而设计,以加速人工智能的实施。专为生成式人工智能、自然语言处理(NLP)和大型语言模型(LLM)开发而设计,为NVIDIA HGX人工智能计算平台进入市场提供支持,包括NVIDIA H100和H200 Tensor Core GPU和全新的NVIDIA Grace Blackwell GB200超级芯片,以及先进的下一代NVIDIA Quantum-X800 InfiniBand和Spectrum-X800以太网网络平台。

联想ThinkSystem AI服务器配备NVIDIA B200 Tensor Core GPU,将为生成式AI的新时代提供动力。NVIDIA Blackwell架构的生成式AI引擎,以及更快的NVIDIA NVLink互连和增强的安全功能,将数据中心推向了一个新时代。B200 GPU 的实时推理能力提高了25倍,可加速万亿参数语言模型,专为最苛刻的人工智能、数据分析和高性能计算工作负载而设计。

全新联想ThinkSystem SR780a V3是一款采用联想海王星液冷技术的5U 系统,电源使用效率 (PUE) 高达1.1。通过使用 CPU 和 GPU 的直接水冷以及 NVIDIA NVSwitch 技术,系统可以在不达到任何热限制的情况下维持最大性能。

此外,新的联想ThinkSystem SR680a V3是一款气冷双插槽系统,可为配备英特尔处理器和NVIDIA GPU的复杂人工智能最大程度提供加速。高度加速的系统提供巨大的计算能力,并使用行业标准的19英寸服务器机架,允许密集的硬件配置,最大限度地提高效率,同时避免占用过多空间。

联想还展示了全新的PG8A0N,这是一款终极1U节点,专为AI设计,支持NVIDIA GB200 Grace Blackwell Superchip。新的GB200芯片将为计算的新时代提供动力。该超级芯片的实时大型语言模型(LLM)推理速度提高了45倍,总体拥有成本(TCO)降低了40倍,能耗降低了40倍。联想将与NVIDIA密切合作,提供GB200机架系统,以增强人工智能训练、数据处理、工程设计和模拟的能力。

从工作站到云支持,联想是为 NVIDIA OVX 系统和 NVIDIA Omniverse 开发平台提供设计、工程和支持的提供商。

全新联想HG630N - MGX 1U—采用联想海王星直接液冷的开放标准服务器,在支持最高性能GPU的同时降低功耗。

全新联想HG650N - MGX 2U -高度模块化,GPU优化的系统,采用风冷,支持行业标准机架,并支持NVIDIA GH200 Grace Hopper超级芯片部署。

全新联想HG660X V3 - MGX 4U -该系统在风冷环境中支持多达8个600W NVIDIA GPU,是NVIDIA Omniverse和AI工作负载的理想选择。联想是NVIDIA MGX 4U的设计合作伙伴。

全新联想HR650N - MGX 2U -一款高性能Arm CPU服务器,具有多核以及存储和前置IO的灵活性,利用高能效的NVIDIAGrace CPU超级芯片并支持dpu。

联想通过提供多达4个 NVIDIA RTX 6000 Ada Generation GPU 来增强其数据科学工作站,用于大型 AI 训练、微调、推理和加速图形密集型工作负载。 这通过自动化工作流程提高了人工智能开发人员的生产力。(静静)