Meta公布參數規模達700億組的人工智慧模型Llama 3.3 標榜效能超越亞馬遜近期推出的Nova

今年7月推出参数规模高达4050亿组的人工智慧模型Llama 3.1之后,Meta近期接续公布参数规模达700亿组的Llama 3.3,标榜执行效能表现与参数规模达4050亿组的人工智慧模型Llama 3.1相当,甚至超越亚马逊近期公布的Nova模型。

此次推出参数规模达700亿组的Llama 3.3,本身是以多语言大型自然语言模型形式打造,以超过15兆以上字词进行预先训练,并且借由公开指令集与超过2500万笔合成资料进行微调,目前已经以开源形式透过GitHub及Hugging Face托管提供使用。

而Llama 3.3采用Transformer架构自动回推 (auto-regressive)语言模型,并且透过监督式微调 (supervised fine-tuning,SFT),加上人类反馈强化学习 (reinforcement learning with human feedback,RLHF)机制,让模型产生结果更符合预期需求,同时确保生成结果正确性与安全性,另外也透过群组查询注意力 (Grouped-Query Attention,GQA)功能,让模型可透过日后推论扩充可解答内容范围。

目前Llama 3.3原生可对应英语、德语、西班牙语、葡萄牙语、义大利语、法语、泰语及印度印地语,并且能在微调后对应更多语言运作。

至于运作效能部分,Meta指出Llama 3.3在多任务语言理解,以及包含财务、数学、多任务学习推理等测试项目中,效能超越Llama 3.1 70B、亚马逊Nova、Google Gemini Pro 1.5、OpenAI GPT-4o,甚至与先前推出的Llama 3.1 405B相当,同时也能对应多语言对话场景,因此相当适合用于多语言商用、研究等情境。

《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》