什么是 Llama 2,如何使用它?

小白软件  2023-07-21 17:33  阅读 212 次浏览 次

从 OpenAI 的 GPT-4 到谷歌的 PalM 2,大型语言模型占据着科技头条。每个新模型都承诺比前一个模型更好、更强大,有时甚至超越了任何现有的竞争对手。

然而,现有模型的数量并没有减缓新模型出现的速度。现在,Facebook 的母公司 Meta 发布了 Llama 2,一种功能强大的新语言模型。但 Llama 2 有什么独特之处?它与 GPT-4、PaLM 2 和 Claude 2 等模型有何不同?

 

什么是 Llama 2?

Llama 2 是一个大型语言模型,是 Meta 和微软这两个在人工智能研究领域处于领先地位的竞争性科技巨头之间不寻常的联盟的产物。它是 Meta 于 2023 年第一季度发布的 Llama 1 语言模型的继承者。

可以说,它相当于谷歌的 PaLM 2、OpenAIs 的 GPT-4 和 Anthropic 的 Claude 2。它是在一个庞大的公开互联网数据集上训练出来的,与训练 Llama 1 所使用的数据集相比,它具有数据集更新和更多样化的优势。Llama 2 的训练数据量比前代多出 40%,上下文长度也增加了一倍(4k)。

如果您过去曾有机会与 Llama 1 进行交互,但对其输出结果印象不深,那么 Llama 2 的表现要优于前者,也许正是您所需要的。但它在与外部竞争者的较量中表现如何呢?

Llama 2 与竞争对手相比有何优势?

 

这要看它的竞争对手是谁。首先,Llama 2 是一个开源项目。这意味着 Meta 发布了整个模型,任何人都可以用它来构建新的模型或应用程序。如果将 Llama 2 与 Falcon 或 MBT 等其他主要开源语言模型进行比较,您会发现它在多项指标上都优于它们。可以说,Llama 2 是目前市场上最强大的开源大型语言模型之一。

然而,当面对 OpenAI 的 GPT 和谷歌的 PalM 系列人工智能模型等巨头时,Llama 2 就失去了优势。在处理需要创造力的任务时,Llama 2 的表现时好时坏。根据你测试的不同版本,你可能无法从 Anthropic 和 OpenAI 模型中获得类似的结果。

说起来,Llama 2 主要是一个 "基础模型",而不是一个 "微调模型"。基础模型是考虑到未来可能的适应性而建立的大型语言模型。它们并不针对任何特定领域进行微调,而是为了能够处理广泛的任务而建立的,尽管有时能力有限。

另一方面,微调模型是对基础模型进行调整,以提高其在特定领域的效率。这就好比把 GPT 这样的基础模型微调成 ChatGPT,让普通大众也能使用。

如何立即使用 Llama 2

虽然 Llama 2 不在 ChatGPT 等面向公众的平台上提供,但您仍然可以下载模型副本并在本地运行,或通过 Hugging Face 云托管实例访问该模型。

要访问 Hugging Face 上的 Llama,只需打开下面相应的 Hugging Face 链接,然后开始提示人工智能聊天机器人即可。

1. 7B 参数 Llama-2 聊天

2. 13B 参数 Llama-2 聊天

3. 70B 参数 Llama-2 聊天

上述 Llama 型号已针对会话应用进行了微调,因此它是最接近 ChatGPT 的 Llama-2 型号。不确定要尝试哪个版本?我们推荐选项三,即 70B 参数的 Llama-2 聊天系统。您仍然可以尝试所有三种模式,看看哪种最适合您的独特需求。

我们试用了 Meta 的 70B 参数 Llama-2 聊天系统,结果令人印象深刻。为了测试它的创造力和幽默感,我们对它进行了标志性的创造力和讽刺测试。我们要求人工智能模型模拟两个人就去太空的好处进行争论的对话,结果如下:

 

接下来是:

 

最后:

 

它并没有正确处理我们说明中的所有细节,但其幽默感却令人印象深刻。

另一方面,如果您拥有在计算机上本地运行 Llama 模型的技术深度,则可以使用 Meta 的 Llama 访问请求表请求访问该模型。 在提供姓名、电子邮件、位置和组织名称后,Meta 将审核您的申请,然后在几小时到两天的时间内拒绝访问或授予访问权限。

Llama 2:重要的第一步

Llama 2 可能不是目前最复杂的语言模型,但由于它是开源的,因此代表着向透明、进步的人工智能发展迈出了重要的第一步。

虽然 OpenAI GPT 目前拥有更好的性能,但 OpenAI 的围墙花园式开发方法意味着模型的增长和开发速度受公司控制。有了像 Llama 这样的开源模型,更广泛的开源社区可以不断迭代创新,打造新产品,而这在围墙花园系统中是不可能实现的。

本文地址:https://www.kkgcn.com/23050.html
版权声明:文章仅代表作者观点,版权归原作者所有,欢迎分享本文,转载请保留出处!

发表评论


表情