超级人工智能会毁灭人类吗? 科学家认为可能性仅为5%

参考消息网1月6日报道 据英国《新科学家》周刊网站1月4日报道,科学家称,人工智能有5%的可能性导致人类灭绝。

许多人工智能(AI)研究者认为,超人类人工智能的发展有可能导致人类灭绝,但对此类风险也存在广泛的分歧和不确定性。

这些发现来自对2700名人工智能研究者的调查结果,他们最近在6场顶级人工智能会议上发表了研究成果——这是迄今规模最大的此类调查。这项调查让参与者分享他们对未来人工智能技术里程碑的可能时间线,以及这些成就的社会影响是好是坏等的看法。将近58%的研究者说,他们认为发生人类灭绝或其他与人工智能相关的极端糟糕后果的可能性为5%。

论文作者、美国加州机器情报研究所的卡特娅·格拉斯说:“这是一个重要的信号,表明大多数人工智能研究者并不认为先进人工智能毁灭人类是非常难以置信的。我认为,这种认为存在非微小风险的普遍看法比确切的风险百分比更能说明问题。”

但俄亥俄州凯斯西储大学的埃米尔·托雷斯说,目前还没有必要恐慌。他们说,许多人工智能专家在预测未来人工智能发展方面“没有良好的记录”。格拉斯及其同事承认,人工智能研究者不是预测人工智能未来发展轨迹的专家,但他们表示,他们2016年的调查在预测人工智能里程碑方面做得“相当好”。

与2022年进行的同一项调查得出的答案相比,许多人工智能研究者预测,人工智能将比此前预测的更早达到某些里程碑。这与2022年11月聊天生成预训练转换器(ChatGPT)问世和硅谷急于广泛部署基于大型语言模型的类似AI聊天机器人的服务吻合。

参与调查的研究人员预测,未来10年人工智能系统有50%或更高的概率成功完成39项样本任务中的大部分,包括谱写与泰勒·斯威夫特的热歌难以区分的新歌,或从头开始编写整个支付处理站点的代码。

其他任务,比如给新家实际安装电线或解决长期存在的数学难题预计需要更长的时间。

到2047年,人工智能在每项任务上的表现都超过人类的可能性为50%,而到2116年,所有人类工作实现完全自动化的可能性为50%。这些估计比去年调查结果中给出的时间分别提前了13年和48年。

但托雷斯说,对人工智能发展的高期望也可能落空。他说:“这些突破有很多是很难预测的。而人工智能领域完全有可能经历另一个寒冬。”他们指的是上世纪七八十年代人工智能领域资金和企业兴趣的枯竭。

在没有任何超人类人工智能风险的情况下,还存在一些更紧迫担忧。绝大多数人工智能研究者认为,涉及深度造假、操纵舆论、基因工程武器、对人口实施独裁控制和经济不平等日益恶化等的人工智能驱动场景令人严重或极度担忧。托雷斯还强调了人工智能在气候变化或民主治理恶化等生存问题上助长虚假信息的危险。