Meta推出參數規模高達4050億組的人工智慧模型Llama 3.1,同樣以開源形式對外提供使用

今年4月宣布推出开源大型自然语言模型Llama 3之后,Meta稍早再宣布推出新版Llama 3.1,最大规模可对应4050亿组参数,同样以开源形式对外提供使用。

而Llama 3.1是以超过16000组NVIDIA H100加速器,以及超过15兆个词元 (token)资料集进行训练,但未说明资料集具体来源。随着此次释出Llama 3.1,Meta同时也将Llama 3的700亿及80亿组参数版本进行升级。

同时,Llama 3.1同样以开源形式对外提供使用,将可用于AWS、Google Cloud、Azure、NVIDIA NIM、Snowflake、Databricks、Kaggle、IBM WatsonX等服务平台运作,同时将会透过Hugging Face平台对外提供使用。

依照Meta说明,Llama 3.1在诸多测试项目超越OpenAI的GPT-4o,以及Anthropic的Claude 3.5 Sonnet,而在AWS云端服务执行Llama 3.1的成本仅需GPT-4o的一半左右。

Meta执行长Mark Zuckberg更解释为什么会以开源形式对外提供其Llama人工智慧模型,原因在于希望借由比照Linux作业系统开源形式作法,借此吸引更多人使用此人工智慧模型创造各类应用服务,进而让Llama人工智慧模型可以持续精进,并且成为诸多业界使用技术。

Meta此次也宣布其人工智慧助理服务Meta AI将增加至支援22种语言,此次主要新增阿根廷语、智利通用西班牙语、哥伦比亚西班牙语、墨西哥语、秘鲁西班牙语,以及喀麦隆皮钦语,同时也将在美国与加拿大市场进驻Quest系列虚拟视觉头戴装置,另外也推出名为Imagine me的个人资料照片自动生成图像功能,让使用者能创造更具特色的个人代表图像。

《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》