蘋果釋出開源自然語言模型OpenELM 將能用於iPhone等終端裝置
在Google、微软、Meta等业者接连推出多款对应人工智慧应用的大型自然语言模型,同时也推出可在终端装置离线运作的自然语言模型之后,苹果稍早也宣布推出名为OpenELM的开源自然语言模型,同样标榜能在终端装置上运作。
OpenELM已经透过Hugging Face托管平台对外提供下载使用,并且包含4款已经预先完成训练,以及4款针对指令最佳化调整版本,分别对应2.7亿组、4.5亿组、11亿组与30亿组参数规模,相较市面多数以70亿组参数在终端装置运作的自然语言模型都还要小,因此能有更流畅执行效率表现。
而苹果目前以提供模型权重档、范例程式码形式授权,并且提供多个训练检查点、模型效能数据,以及相关操作指引,授权范围并未限制商用或进行修改。另外,苹果更说明OpenELM训练数据来源包含在Reddit、维基百科、arXiv.org等公开资料,并且透过约1.8兆个代币数据进行预先训练,但强调此模型并未加上任何安全保证,因此可能会有做出回应不准确、有害、带有偏见,或是令人反感内容。
苹果在去年公布针对其晶片产品打造的高效能机器学习框架MLX,后续也与美国哥伦比亚大学研究人员公布开源多模大型自然语言模型「Ferret」 (雪貂),而此次公布的OpenELM则是以开源形式对外提供使用,同时也可能应用在自有产品,例如iPhone、Mac等。
《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》