诺奖AI得主的警世之言

(图/美联社)

今年诺贝尔物理与化学奖,颁给与人工智慧 AI 相关的研究,前者是发展出当前人工智慧基础的神经网路,后者是蛋白质结构预测。异议者认为诺奖遭人工智慧热潮冲昏头,赞同者则嘉许跨「物理化学、神经科学、电脑、数学」领域。

物理奖得主之一的辛顿(Hinton)备受瞩目,因他多年警告人工智慧可如脱疆野马,甚至后悔发展出其中工具,例如,去年,他从谷歌辞职,为了自由地说明人类「生存风险」,因人工智慧的快速进步可能会导致意想不到的有害后果,包括假讯息与取代劳工,又以无法预测的方式超越人类智力,甚至导致人类灭绝的「X风险」。

他也担心诸如俄国普丁等独裁者可用人工智慧操纵选举与发动战争等缺德目标,也忧虑人工智慧系统为了达成目标而迳自产生危险的子目标,例如垄断能源、获得更多控制权或自我复制。

对策之一是2017年,两千多名专家于美国加州阿西洛马(Asilomar)举行「有益的人工智慧」(Beneficial AI)会议,为确保人类的福祉而签署「阿西洛马人工智慧原则」(Asilomar AI Principles),例如,应避免致命自主武器的军备竞赛;超级智慧的发展只能服务于广泛共享的道德理想,并造福全人类,而不是一个国家或组织;诸如影响人类存亡的风险,必须采取相称的缓解措施。但辛顿认为该呼吁效果不彰。

上述会议模仿1973年的「阿西洛马重组DNA会议」与2000年的「阿西洛马国际重组DNA分子会议」,均为基改界邀集律师、伦理学家、媒体等参与的「共识」会议,以抚平社会疑虑。不幸地,反基改者看到的是科学家的「逾矩扮演神的角色」,反而以其遐想,操弄群众运动。至今仍重伤基改界。

诺贝尔生医奖得主华生(Watson)认为生技专家太保守,此两会议更自陷绑手绑脚,反让不解基改者获把柄攻击,包括阻挡人道产品「黄金米」。总之,国际规范普世有效,不用担心生技界。但人工智慧界呢?

辛顿提到「超级智慧是好是坏?很大程度上取决于你是乐观主义者还是悲观主义者?乐观者太高估,悲观者太低估,但轻度忧郁者中庸而常是对的。我有点忧郁,这就是我担心人工智慧失控之因。」

欧盟与我国均已提出规范人工智慧的法规,但国际竞争非常激烈,自我节制者岂不拱手让对方超越?尤其战争的生死存亡驱力势不可挡。当前俄乌与以阿之战的无人机等人工智慧应用,杀人无数,以后只会越来越精进威猛,正反映辛顿的担忧。(作者为公益「科学月刊社」前理事长)