冷战核扩散计划竟能防人工智能军备竞赛?

正如马克·吐温所说:“历史虽不常重演,但往往有惊人的相似之处。”我们很幸运历史如此,因为这意味着我们至少可以将过去的经验教训作为当下的大致指南。当我们将这些经验教训应用于应对生存风险时,它们甚至可能从字面上拯救生命。而我们当下最大的三个生存风险是气候变化、大规模杀伤性武器和人工智能。

生成式人工智能领域,尤其是大型语言模型取得突破性发展,引发了来自私营部门和政府的兴趣急剧上升;2023 年全球人工智能市场获得了 1430 亿美元的资金,相比 2022 年的 900 亿美元有了显著增长。

这种令人兴奋的兴趣在很大程度上是因为人工智能有望全面改变现代生活的几乎各个方面。从分析医疗检测到撰写法律简报,再到帮助作家和艺术家创作新的艺术作品,似乎没有人类活动能免受人工智能潜在益处的影响。

但希望的同时也伴随着危险。由于人工智能有改变现代生活的潜力,各国之间,尤其是美国和中国,已经展开了一场军备竞赛,看谁能以最快、最有效的方式利用人工智能的力量。更具体而言,两国都全力以赴地加强和整合人工智能技术所依赖的两大支柱——训练模型所需的大量数据和进行计算所需的大量计算能力(包括芯片)。

这场新的军备竞赛在很大程度上是由于人工智能的军事潜力。同样的人工智能,既可以在智能实验室中用于分析医疗检测或合成药物,也可以用于战场,更好地区分敌方士兵和己方士兵,并提高瞄准敌方资产的效率。在民用和军事应用中能够最有效地利用人工智能的国家,在决定世界秩序方面将具有显著优势。

但也许人工智能最大的危险来自于它未来可能会变成什么样子。通用人工智能(AGI)是指人工智能系统变得有自我意识并自行做出决策,其行为方式超出甚至违背其人类创造者为其设定的目标。虽然具有人类水平智能的人工智能目前仍是遥不可及的梦想,但过去几年中大型语言模型和相关系统所取得的惊人且出乎意料的进展,让人们对未来人工智能能力突然、意外跃升的担忧并非毫无根据。

鉴于通用人工智能的潜力以及各国为建设性和破坏性目的利用它而展开的竞赛,人工智能的安全和监管问题已经变得与技术本身的发展同样重要。由于发展的速度以及技术的根本不可预测性,我们感觉自己身处未知领域。然而,参照上述马克·吐温的名言,我们并非如此。大约八十年前制定的一项提案可能成为我们在这个勇敢的新世界中航行的指路明灯。

在广岛投下原子弹几天后,罗伯特·奥本海默(作者的祖父之一)在给他的老师赫伯特·史密斯的一封信中写道:“未来虽有诸多充满希望的因素,但离绝望也仅一步之遥。”奥本海默所说的希望是核武器的恐怖可能会废除战争。他所提及的绝望在于,人类或许不够明智,难以在不毁灭自身的前提下处理这一难得的能源。

1946 年,副国务卿迪恩·艾奇逊要求田纳西河谷管理局主席、即将成为原子能委员会主席的大卫·利连索尔撰写一份报告,分析核武器的威胁,并为美国向新成立的联合国提出一项行动计划。作为科学和工业顾问,利连索尔任命奥本海默和一个小型顾问团队为他提供建议并撰写报告。

在奥本海默的非正式领导下,鉴于他最为博学,委员会提出了一个既激进又合理的独特建议。艾奇逊 - 利连索尔报告于 1946 年 3 月提交给总统和国务卿。主要由奥本海默撰写,它包含三个关键结论:

艾奇逊 - 利连索尔报告的最终建议不仅令人震惊,因为其本质上主张一种和平扩散的形式,而且极具革命性。让核技术的所有部分都平等可用,这就如同将一把拆开的枪的所有部件平等放置,使每个国家都能够触及。这将实现两个关键目标:一个是透明度。另一个,与直觉相反,是安全性:各国不会因为其他国家也有同样的作弊和制造武器的能力而受到诱惑去作弊或制造武器。

艾奇逊 - 利连索尔计划没有实现,因为杜鲁门总统天真地认为苏联永远不会拥有原子弹,而且美国人有责任为全人类“神圣地保管原子能”,而被任命与苏联谈判该计划的伯纳德·巴拉克插入了他知道苏联会拒绝的条件。

相反,认为可以通过保密来垄断科学进步的信念导致了科学家们所担心的军备竞赛。 裂变不是秘密,1949 年苏联测试了他们的第一颗原子弹,这种幻想很快就破灭了。裂变的现实是关于科学本身的现实,奥本海默雄辩地表达了这一点,他说:“科学中的深刻事物不是因为有用而被发现,而是因为有可能发现它们才被发现,这是一个深刻而必要的真理。”

即便该方案在 1946 年提出时遭遇失败,艾奇逊 - 利连索尔报告的重生形式仍为我们如何应对人工智能提供了关键指引。让我们假设通用人工智能构成的威胁与核武器一样大。就像核武器的主要目标一样,人工智能的主要目标是确保该技术不落入危险的国家和非国家行为者手中,并确保其得到良好而非有害的使用。

但要达成这一目标,需要认可在本就激进的艾奇逊 - 利连索尔方案中所隐藏的真正激进的提议——也就是要明白该提议唯有在不存在秘密的情况下方可生效,而是要依靠核查与公开讨论。该计划明确指出,让世界变得不那么危险的唯一途径是不存在军备竞赛。

倘若我们想要防止美国和中国在人工智能领域出现类似的军备竞赛,就务必要接纳这一想法。天真的反应是通过坚信唯有绝对保密方能实现绝对安全,从而引发另一场军备竞赛,这犯了引发核军备竞赛的相同错误。保密不可能是一个可行的长期战略。

实际上,人工智能的问题要比核武器的问题更为严重。在一定程度上,保密对核武器有效,因为核武器的扩散从根本上受到铀或钚可用性的限制。但要防止人工智能的扩散,就需要对在互联网的多个角落自由漂浮,并在世界各地的大学课程中传播的小段代码进行监管。

这个问题再度与二战后核武器的问题惊人地相似,当时的政治家和将军们认为他们能够对武器技术进行保密。他们没有意识到,而像奥本海默、汉斯·贝特和利奥·西拉德这样的科学家一直试图告诉他们的是,核武器成为可能这一事实是唯一的秘密。一旦这个秘密泄露,剩下的就是时间和有才华的科学家和工程师的问题,而苏联两者都有。同样,人工智能唯一真正的秘密是可以构建模型。

那么,有关人工智能安全的关键问题已不再是应不应该保护模型权重或算法秘密——你应当保护——而是从长远来看,采取极端保密的手段是否会让世界在人工智能方面变得更安全。事实上,与核扩散一样,美国任何诉诸保密的尝试都会引发中国更大的努力来保护其认为的自身秘密。

其结果将会引发一场军备竞赛,在这场竞赛中,保密和封闭的模式会促使国家和非国家发起攻击,在出现问题时妨碍系统的故障排查,还会让广大民众无法参与到人工智能安全与监管的关键问题之中。

那么,如果不强制实行完全保密,我们究竟应该怎么做才能让人工智能对世界而言是安全的呢?正如艾奇逊 - 利连索尔报告所提议的,我们应当采取截然相反的、激进的办法。我们应当让船漏水,哪怕是有意为之且处于可控的状态。我们需要做的是将所有人工智能进行开源;这就相当于让报告里的国际权威机构向每个人提供核技术的所有部分。

如果我们担心中国窃取我们的模型,那咱们就给他们提供基本的算法和代码——但不包括模型权重或关键的算法创新——如此一来,我们双方就能在相同的基础上开展工作;这样的话,作弊和滥用该技术的障碍就会高很多。

科学家和工程师在向政治家和公众宣传这些风险方面所发挥的关键作用不容小觑。二战后,政治家和将军们所犯的最大错误之一,就是让自身的科学无知左右政治决策,认为科学事实与政策毫无关联。虽说科学家并非治国或外交领域的专家,可他们所掌握的事实能够为某些政治决策提供信息,甚至促使做出某些政治决策。裂变的发现迫使世界认识到,如果各国不合作,就会面临毁灭,强大的人工智能模型的兴起也应当促使世界形成类似的认识。

幸运的是,至少有部分关键参与者已经察觉到,让人工智能开放对所有人都有益处。首先是 OpenAI 它是作为针对山姆·奥特曼、比尔·盖茨、埃隆·马斯克和安德烈·卡帕西等企业家所指出的潜在人工智能威胁的解毒剂而创立的。尽管策略和业务结构有所变化,还有追求利润的激励因素,但技术领导者愈发认识到开放是应对指数级技术风险的良方。

最近的一个例子是 Meta 创始人兼首席执行官马克·扎克伯格,他在 7 月 23 日宣称 Meta 的 Llama 3.1 人工智能模型将会开源。这个拥有 4050 亿个参数的模型反过来还能够用于对参数较少的模型进行微调。扎克伯格清晰明了的帖子区分了人工智能造成的有意伤害和无意伤害,并指出开源模型将有助于减轻这两类伤害。

他认识到,拥有封闭模型不仅只会使少数参与者受益,而且如果这少数人选择这样做,还会威胁到整个生态系统。如果国家行为体决定滥用这些模型,其他国家行为体能够检查其行为,因为它们是基于相同的基础开展工作的。如果非国家行为体决定滥用这些模型,国家能够再次对其加以控制,因为它们能够访问相同的代码库。如果模型本身失控,就像通用人工智能悲观主义者所担心的那样,整个世界可以共同努力,根据共同的知识来解决问题。这与艾奇逊 - 利连索尔报告中所有人均能平等获取核技术的情形有着惊人的相似之处。

在给联合国的一封信中,丹麦物理学家尼尔斯·玻尔——其思想在艾奇逊 - 利连索尔报告中被奥本海默隐性地体现——设想“置于首位的目标”是“一个开放的世界,在这个世界中,每个国家都只能凭借其对共同文化的贡献程度以及通过经验和资源相互帮助的程度来彰显自身”。保密与人工智能有望带来巨大红利从而引领人类走向幸福、富有创造力和繁荣的黄金时代这一情况无法完全兼容。但实现这一状态的关键将是玻尔的开放世界。