不是用輝達GPU!蘋果揭露靠Google自研晶片訓練AI模型
苹果表示,支撑其AI系统Apple Intelligence的人工智慧模型是靠Google设计的处理器进行预先训练。美联社
苹果公司周一(29日)表示,支撑其AI系统Apple Intelligence的人工智慧模型是靠Google设计的处理器进行预先训练。这显示苹果并非是使用辉达(Nvidia)的晶片来训练AI模型,也是大型科技公司在训练先进AI方面寻求辉达晶片以外替代品的一个迹象。
苹果发表一篇技术报告,详述选择采用Goolge开发的两种TPU(Tensor Processing Unit,张量处理器)进行AI模型训练,这些处理器构成了大型晶片丛集。为了建立在iPhone和其他装置上运作的AI模型,苹果使用了2,048个TPUv5p晶片;在伺服器AI模型中,苹果部署8,192个TPUv4处理器。
苹果决定采用Google的云端基础设施来训练AI模型,是值得注意的,因为辉达所生产的AI处理器是目前业界最热门的。包含计算Google、亚马逊和其他云端运算公司生产的晶片在内,辉达占了大约80%市占。
在研究报告中,苹果没有表明未使用辉达晶片,但在描述其AI工具的硬体和软体基础与功能时,并没有提到辉达的软体。
路透说,无法立即连络到苹果公司提出回应。Google没有回复置评请求,辉达则不愿置评。
辉达并不设计TPU,而是聚焦广泛用于AI的绘图处理器(GPU)。
Google是透过其云端平台Google Cloud Platform销售能使用其TPU的权利,这点和辉达独立销售晶片与系统的做法不同。有意购买TPU使用权的客户,必须透过Google的云端平台构建软体,才能使用TPU。
苹果在47页的报告中没有提到Google或辉达,但确实指出其苹果基础模型(AFM)和AFM伺服器是在「云端 TPU丛集」上进行训练。这代表苹果是向云端业者租用伺服器来执行运算。
苹果工程师在研究报告中表示,使用Google的晶片可以创造出比报告中讨论的两款模型更庞大、更复杂的模型,「这系统让我们能够有效率地训练AFM模型而且可以扩容,包括终端装置上的AFM、AFM伺服器与更大的模型。」
苹果本周将向其测试版用户推出Apple Intelligence功能。
苹果在6月的开发者大会上发表一系列新的AI功能,包括将OpenAI的ChatGPT技术整合到其软体中。