解锁羊驼 3 的潜力,这些事您不得不知!
Llama 3 是 Meta 于 2024 年发布的最新一代大型语言模型。除了有效之外,其一大卖点在于能够免费使用
羊驼 3 是由Meta AI开发的最新的大型语言模型,Meta AI 是 Facebook 母公司 Meta 的人工智能分支。它于 2024 年 4 月推出,到 2024 年 7 月已更新至 3.1 版本,增添了新功能。虽然它是多模态的,但它还不能输出图像、视频或音频,而是严格专注于基于文本的输出,不过它确实提供编码支持。
您可以访问羊驼 3 的三个版本。最大且功能最强的是 Llama 3.1 405B 模型,Meta 基于 4050 亿个参数(故而称为“405B”)对其加以训练。它在 2024 年 7 月随着羊驼 3.1 的更新而推出,使羊驼成为世界上功能最强大的开源大型语言模型。
405B 模型拥有 128,000 个标记的上下文窗口,这使其能够处理比其他大型语言模型大得多的数据集、文件和更长的提示,并且在扩展输入时能保持上下文意识。当涉及到生成用于训练其他大型语言模型的合成数据时,此功能特别有用,因为上下文非常重要。
除了对数万亿个标记的数据展开广泛的预训练外,405B 还从人类交互中获取了大量的微调以及数百万个标记的反馈,以提升其准确性并增强其防范恶意使用的保障措施。405B 模型几乎专门用于高级研究,并在数据中心硬件上运行,因为其规模使其运行成本更高。
Llama 3.1 70B 是一个更紧凑的模型,基于 700 亿这一相对适度的参数数量进行训练。它比 405B 模型更快、更精简,运行所需的处理能力大幅减少。较小的数据集让它成本更低、速度更快,并允许其在一些商业硬件上运行。它保留了 405B 模型的大上下文窗口,但在能力的深度和广度方面有所欠缺。70B 模型可以承担中等人工智能任务,例如为客户支持运行聊天机器人。
Llama 3.1 8B 是这些模型中最精简的,仅基于 80 亿个参数进行训练。它仍然保持 128,000 个标记的上下文窗口,但其更有限的训练数据意味着它不如其他模型准确,也不像其他模型那样能够执行复杂的分析。不过,其轻量级设计使其能够在消费级硬件上本地运行,使其成为本地文本生成和希望使用人工智能功能构建轻量级商业应用程序的开发人员的绝佳工具。
Llama 3 已被证明是一组非常有能力的大型语言模型,可以与最好的竞争对手相媲美,包括标志性的GPT-4 和 GPT-4o 模型。
在与其他高端语言模型的基准测试里,Llama 3.1 表现非常出色。其 405B 模型与大多数其他顶级模型一样好或更好,其 Llama 70B 和 8B 模型与那些更精简、更快的模型具备竞争力。
Llama 3 编码能力出色。它既可以帮助您编写自己的代码,也可以为您定制编写整个程序,如果您的需求较为简单。它支持超过 30 种语言,尽管在处理英语时仍然是最好的。
像大多数大型语言模型人工智能一样,Llama 3 在为写作生成文本方面也表现极佳。这适用于商业场景、小说、散文以及社交媒体帖子。它也可以考虑很多上下文,所以您真的可以微调您的提示。
Llama 3 比这一大型语言模型的前几代有更先进的保障机制。它包括 Llama Guard 3,这是一个多语言安全模型,与 Prompt Guard 一起工作,有助于防止使用提示进行代码注入和生成。这些应用程序也是开源的。
对于消费者、开发人员和大型语言模型使用的增长来说,Llama 3 的一个主要优势是它是开源的。代码可供开发人员和最终用户使用,以其为基础创建新的和更好的东西。这种访问加速了 Llama 3 驱动的人工智能和聊天机器人的发展,因为它在其他商业可用的大型语言模型所不能覆盖的领域可用。
您甚至能够亲自试用高端的 Llama 3.1 405B 模型,向 Meta.ai 或者 美国的 WhatsApp 上提出具有挑战性的数学或编码问题。
尽管 Llama 3 能力很强,但它并非在所有方面都是最佳的 LLM,而且还缺少您在别处可能会发现的众多功能。
虽说它是一个多模态语言模型,不过在撰写此文时,Llama 3 并未拥有完全的多模态支持。图像生成还未得到广泛应用,并且它不能生成视频或音频。
它在除英语之外的语言方面的能力也依旧有限。它会产生幻觉,并且像过去这类其他的 AI 一样自信地犯错。
Llama 3.1 的运行成本也很高,尤其是其性能最强的 405B 模型,所以对这个顶级模型的使用权限有限,且这种情况可能会持续一段时间。其他模型令人印象深刻,但它们无法提供相同的能力。
Llama 3 的训练成本高得令人咋舌。它需要长时间使用数千个 Nvidia H100 GPU。事实上,数量如此之巨,就连像 Meta 这种规模且资源丰富的公司,也不得不决定何时——以及持续多长时间——允许模型使用硬件进行训练,因为他们可能在其他地方也需要它。
使用 Llama 3 最简单的方法是,如果您在美国,可以在 Facebook Messenger 中与Meta.ai 聊天机器人或 WhatsApp 进行交互。该 AI 运用了 Llama 3 ,并且会依据您任务的复杂程度,准许您使用 Llama 3.1 405B ,或者要求相对较低的 70B 和 8B 模型。
您还能够在诸如 HuggingFace 这类平台上使用 Llama 3 ,此平台提供了对开源大型语言模型的访问渠道。您需要注册一个帐户,并从可用模型中选择 Llama 3,但随后您可以使用 API 创建自己的应用程序或使用 HuggingFace 的库直接与模型进行交互。
或者,您能够 下载并安装 GPT4All。它能让您与一系列大型语言模型进行交互,包括在本地的 Llama 3。不过要注意,跟基于云的大型语言模型相比,使用高端模型时性能会显著下降。