约瑟夫·奈:人工智能风险管控须加快步伐

参考消息网8月5日报道 世界报业辛迪加网站7月31日刊发题为《人工智能与国家安全》的文章,作者是美国哈佛大学肯尼迪政府学院前院长约瑟夫·奈。文章摘编如下:

众所周知,技术的发展速度要快于政策或外交,尤其是在私营部门激烈的市场竞争推动下。但涉及应对与当今人工智能相关的潜在安全风险,政策制定者需要加快步伐。

许多科学家将人工智能视为具有变革意义的工具。像过去出现的通用技术一样,人工智能具有巨大的潜力,既可以为善,也可以作恶。在癌症研究中,人工智能在几分钟内整理和总结出来的研究成果,多于人类团队需要几个月才能完成的工作量。同样,人工智能可以可靠地预测蛋白质折叠的模式,同样的工作,人类研究人员可能需要好几年才能完成。

但人工智能也降低了不合群者、恐怖分子和其他可能希望造成伤害的不良行为者的成本和门槛。美国兰德公司最近的一项研究警告,“复活类似天花的危险病毒,边际成本可能只需要10万美元,而开发一种复杂的疫苗,边际成本可能超过10亿美元”。

此外,一些专家担心,先进的人工智能将比人类聪明得多,以至于人工智能将控制我们,而不是我们控制人工智能。如今狭义的人工智能带来的风险越来越大,已经需要更多的关注。

40年来,美国阿斯彭战略研究集团每年夏天都会召开会议,集中讨论一个重大的国家安全问题。过去会议的主题包括核武器、网络攻击和中国的崛起。今年,我们关注的是人工智能对国家安全的影响,探究人工智能的好处和风险。

人工智能的好处包括能够更好地整理大量的情报数据,加强预警系统,改善复杂的后勤系统,还有检查计算机代码以提高网络安全。但也存在很大的风险,比如自主武器的进步,编程算法的意外错误,以及可能削弱网络安全的对抗性人工智能。

自主武器构成的威胁尤为严重。尽管在联合国进行了十多年的外交工作,各国还是未能就禁止致命的自主武器达成一致。国际人道主义法律规定,各国军队需要区分对待武装战斗人员和平民,五角大楼长期以来一直要求,在发射武器之前,必须有人类参与决策过程。但在某些情况下,比如防御来袭的导弹,就没有时间让人类干预。

考虑到事情发生的背景很重要,人类必须(在代码中)严格定义武器能做什么,不能做什么。换句话说,应该保证“决策过程本身”由人类决定,而不仅仅是“在决策过程中”有人类参与。这不是一个单纯的假设问题。在乌克兰战争中,俄罗斯方面干扰了乌克兰军队的信号,迫使乌克兰方面给设备编程,让武器自主决定何时开火。

人工智能最可怕的危险之一是在生物战或生物恐怖主义中被使用。当各国在1972年同意禁止生物武器时,人们普遍认为生物武器没有用,因为有“反扑”自己的风险。但有了合成生物学,就有可能研制出能摧毁一个群体而不影响另一个群体的生物武器。或者,假如有个能使用实验室的恐怖分子,他可能只是想杀死尽量多的人,就像1995年发生在日本的东京地铁沙林毒气恐袭事件。(他们当时使用的是沙林毒气,不具有传染性,但现代的恐怖分子却可以利用人工智能制造传染性病毒。)

在核技术方面,各国于1968年达成《不扩散核武器条约》,目前已有191个缔约国。国际原子能机构定期检查各国国内的能源项目,以确认这些项目仅用于和平目的。尽管冷战时期竞争激烈,但核技术方面的主要国家仍一致同意,对最敏感的设施和技术的出口实行限制。尽管人工智能与核技术之间存在明显差异,但核技术的先例为人工智能指明道路。(编译/胡雪)