打着“开源”旗号的AI大模型,可能会有一些陷阱?

ChatGPT 的问世,让更多人开始有机会使用强大的人工智能(AI),但这个聊天机器人的内部运作机制仍是一个未公开的秘密。

因而,近几个月来,让人工智能更加“开放”的相关工作似乎获得了人们的更多关注。

今年 5 月,有人泄露了 Meta 公司的“Llama”模型,让外界可以访问其底层代码以及决定其行为的模型权重等。今年 7 月,Meta 又推出了功能更强大的模型 Llama 2,声称供任何人下载、修改和重复使用。自此,Meta 的 Llama 系列模型成为了许多公司、研究人员和人工智能业余爱好者构建具有类似 ChatGPT 功能的工具和应用程序的基础。

“我们在世界各地拥有广泛的支持者,他们相信我们对当今人工智能的开放方法......研究人员致力于使用该模型进行研究,而科技界、学术界和政策部门的人们也和我们一样,看到了 Llama 和开放平台的好处,” Meta 在发布 Llama 2 时说。日前,Meta 也发布了另一个模型——Llama 2 Code,该模型针对编码进行了微调。

数十年来,开源方法使软件的获取变得更加民主、确保了透明度并提高了安全性,现在似乎也被认为可以对人工智能产生类似的影响。

但这或许还远远不够。

来自卡内基梅隆大学(Carnegie Mellon University)、AI Now 研究所(AI Now Institute)和 Signal 基金会(Signal Foundation)的研究团队,在一篇题为“Open (For Business): Big Tech, Concentrated Power, and the Political Economy of Open AI”的论文中,探讨了“Llama 2”和其他以某种方式“开源”的人工智能模型的现实情况。他们表示,打着“开源”旗号的模型可能会有一些“陷阱”。

据论文描述,尽管 Llama 2 可以免费下载、修改和部署,但它不在传统的开源许可范围内。Meta 的许可证禁止使用 Llama 2 训练其他语言模型,如果开发者将 Llama 2 部署到每日用户超过 7 亿的应用程序或服务中,则需要特殊许可证。

这种程度的控制意味着 Llama 2 可以为 Meta 带来重大的技术和战略利益——例如,当外部公司在自己的应用程序中使用 Llama 2 模型时,Meta 可以从有益的调整中获益。

研究人员说,在普通开源许可下发布的模型,如非营利组织 EleutherAI 的 GPT Neo,开放程度更高。但这些项目很难与大型公司推出的模型竞争。

首先,训练高级模型所需的数据往往是保密的;其次,构建此类模型所需的软件框架通常由大公司控制,最流行的两个软件框架 TensorFlow 和 Pytorch 分别由谷歌和 Meta 维护;再者,训练大型人工智能模型所需的计算机能力也非一般开发人员或公司所能承担,通常一次训练需要数千万或数亿美元;最后,完善和改进这些模型所需的人力也大多是大公司才能获得的资源。

因此,研究团队认为,从目前的趋势来看,这项数十年来最重要的技术之一最终可能只会丰富和增强少数几家公司的能力,其中包括 OpenAI、微软、Meta 和谷歌。如果人工智能真的是一项能改变世界的技术,而且能得到更广泛的应用和普及,就能为全世界带来最大的好处。

“我们的分析表明,(这种程度的)开源不仅不会使人工智能‘民主化’,” 该论文的作者之一 Meredith Whittaker 告诉《连线》(Wired),“事实上,公司和机构可以而且已经利用“开源”技术来巩固和扩大权力集中。”

进一步说,即使是最开放的“开放”人工智能系统,其本身也不能确保人工智能的民主获取或有意义的竞争,开放本身也不能解决监督和审查的问题。

Whittaker 补充说,开源应该成为亟需制定的人工智能法规的一个重要考虑因素,“我们确实亟需有意义的替代技术,来取代由大型垄断企业定义和主导的技术——尤其是当人工智能系统被整合到医疗保健、金融、教育等具有特殊公共影响的高度敏感领域时。创造条件让这种替代成为可能,是一个可以与反垄断改革等监管运动共存甚至得到其支持的项目。”

研究团队也表示,除了制衡大公司的权力之外,让人工智能更加开放对于释放该技术的最佳潜力——同时避免其最坏的倾向——可能至关重要。

如果我们想了解最先进的人工智能模型有多大能力,并降低部署和进一步发展可能带来的风险,那么最好向全世界的科学家开放这些模型。

正如“隐晦式安全”(security through obscurity)永远无法真正保证代码的安全运行一样,对强大的人工智能模型的工作原理加以保护,也未必是一个最明智的做法。