Meta推Llama 3大型语言模型 剑指Open AI抢市占
Meta在19日宣布新一代的Llama 3 初始的2个模型,有更精准的推理能力。(图/Meta提供)
不让Open AI独占市场,Meta在19日宣布新一代的Llama 3 初始的两个模型已可广泛使用;此版本包含预训练和指令微调的语言模型,其中的8B (80亿) 和 70B (700亿) 参数,可支援更多元的使用情境。新一代Llama平台可在多项产业指标展现了卓越的成效,并提供许多新的功能,包括更精准的推理能力,是目前同业中最佳的开源模型。
Meta表示,希望透过建立与目前专有模型并驾齐驱的最佳开放模型 Llama 3,回应开发人员的回馈,并提高Llama 3的整体实用性,同时持续领导负责任地使用并部署大型语言模型。
并让社群抢先试验这些仍在开发阶段的模型;19日推出的以文字为基础的模型为 Llama 3系列的第一波模型,同时也期待让Llama 3具备多语言和多模态、有更长的上下文语境,并继续提升推理和编写程式码等核心大型语言模型能力的整体表现。
Llama 3的全新8B、70B参数模型,相较于Llama 2有大幅进步,并为此规模的大型语言模型立下新标准;得益于预训练与后训练技术的进展,Meta表示预训练和指令微调模型是目前 8B 及 70B 参数规模的最佳模型。
Meta强调,后训练程序流程的改进大幅降低错误拒绝率(False Rejection Rate, FRR),改善一致性,并提升模型反应的多样性。同时,在推理、程式码生成和指令遵循等功能亦有显著提升,让Llama 3更易于操控。