「卖晶片」走向「卖方案」 AI算力革命 台积助攻辉达新品

图/美联社

不同制程单位数量电晶体成本比较

辉达正式发布最新一代AI加速器产品-Blackwell架构下的B200,为目前GPU产品线的旗舰产品,B200性能的创新,在台积电制程领先技术协助下,针对大规模AI模型应用进行强化,在AI领域掀起新一轮技术革新。惟算力倍增恐已是单晶片提升极限,未来将仰赖先进封装达成算力堆叠。

B200采多晶片封装技术,单个GPU拥有20,480个cuda核心,较前代Hopper架构之H100提升超过2.5倍;据指出,H100的晶片面积为814mm2,而ASML的EUV曝光尺寸理论最大值为26x33,就是858mm2。换言之,以现有光罩的尺寸和光刻技术,没办法做出一个比这个更大的die size,所以索性把两个晶片拼接,做成一个GPU。

核心数量也得益于制程工艺技术提升,两个10,240核心的GPU以互联技术结合,采用「two-in-one」设计,突破单颗GPU晶片面积瓶颈。市场人士表示,面对AI大模型的来势汹汹,辉达已透过台积电先进封装、打破过往线性的进化节奏,相较于先进封装,B200制程仍停留在台积电4奈米,只不过升级为N4P。

另一个亮点于B200在GPU间通讯方式的强化。B200采用了辉达第四代NVLink interconnect,单个NVLink Switch最高可支持576个GPU互联,频宽高达1.8TB/s。全新的GPU互联技术,为未来大规模分布式AI训练提供强而有力的硬体支援。

值得一提的是,B200在数据类型支持上也得到了优化。除了延续Hopper架构的FP32、FP16等常见数据类型外,B200新增加了对FP4等更低精度运算的支持。这不仅提高了推理效率,同时也为大规模模型训练创造了条件。

B200的推出标志着辉达在AI加速器领域掀起新一轮技术革新。无论是在GPU规模、记忆体容量、通讯频宽等关键指标上,B200都有大幅提升,成为未来大规模AI应用的硬体基础。

辉达的野心很大,从来都不只是单纯想做一个卖AI晶片的公司,而是更大的目标-AI时代算力方案解决商;或者说辉达改变AI商业模式,想卖的不只是铲子,而是整座矿山。