避免引发AI 军备竞赛 美学者吁:美中应研商AI监管协议
图为今年7月在瑞士日内瓦举行的「人工智慧造福人类全球峰会」。(摘自新华社)
加州大学柏克莱分校讲师Peter Bittner日前在「中美聚焦」网站上撰文呼吁,美中借鉴全球武器条约的历史先例,包括标志性的《禁止核子扩散条约》(NPT),就人工智慧(AI)监管达成双边协议,是十分重要的。
文章称,人工智慧系统驱动汽车,为各行各业提供动力,并且越来越多地影响着军事决策。然而,与所有强大的技术一样,它也带来了重大风险─如果不加以控制,可能破坏双边和全球关系的稳定。
Peter Bittner直言,人工智慧可以为军事行动提供巨大的战略和战术优势。然而,另一方面却可能引发一场新的人工智慧军备竞赛,有可能引发冲突、滋生不信任并破坏全球稳定。
文章称,这种情况令人毛骨悚然地想起冷战期间世界面临的核难题。随着核技术的发展,出现了一个悖论─虽然具有发电等和平应用方面的潜力,但它也化身为相互保证毁灭(MAD)的幽灵。正是在这种背景下,1968年《不扩散核武器条约》应运而生,它旨在防止核武器扩散、促进裁军、促进和平利用核能。
Peter Bittner表明,人工智慧的兴起也造成了军民两用的困境。人工智慧具有显著提高生产力、解决复杂问题,并创造巨大经济和社会效益的潜力。然而,如果不受监管,它有可能对美中关系和全球层面的稳定构成重大威胁,特别是在军事领域。
文章警告,人工智慧驱动的军备竞赛可能带来的场景是,由机器驱动的快速决策绕过人类的深思熟虑和判断,从而无意中加剧冲突。这些自动化决策可能无法完全考虑地缘政治的细微差别和长期影响。
此外,在追求优势的过程中,各国可能越过道德界限,创造出无需人类干预即可行动的人工智慧武器,进一步扩大意外对抗的风险。缺乏标准化的人工智慧规范,还可能导致各国沉迷于秘密的人工智慧活动,从而加剧相互猜疑,并增加因为误解意图而采取先发制人行动的机率。
文章呼吁,美中就人工智慧监管达成双边协议,可能有助于应对上述威胁。该协议应涵盖限制自主武器的开发和部署、提高人工智慧研究和开发的透明度,以及促进共同利用人工智慧应对气候变化和疾病爆发等共同挑战等。