伤1人或伤5人 自动驾驶的「道德困境」Google也无解

▲虽然已经有业者抢先推出自动驾驶载客服务,但还有一大难题尚未解决。(图/达志影像美联社

记者张庆辉综合报导

自动驾驶技术发展至今,科技难题已经一题一题被破解,甚至有业者抢先推出无人车载客服务,正当看似迎向美好未来时,其实还有一大难题急需寻找解答,而且就连Google都还没有明确答案,那就是「道德困境」。

▲即使在自动驾驶领域耕耘已久的Google,目前也没有找到正确答案。(图/达志影像/美联社)

所谓道德困境,指的是类似于「两权相害取其轻」的情况,最经典例子,就是火车行驶在正线上,即将撞上前方的五个孩子,而在废弃的支线上,只有一个孩子,这样的难题就连人类都很难取舍,更何况是没有「道德感」的电脑

▲如果必须要牺牲车上乘客,来挽救多数人的生命,这时电脑会如何选择?(图/翻摄自Mercedes-Benz)

Google的技术总监Ray Kurzweil近期在演讲中,明确表示这个问题目前没有答案,如果只是告诉电脑「不能杀人」,这样的规则也太过简单,如果导入Isaac Asimov所提出的「机器人法则」,也就是机器人不得伤害人类、也不能不作为使人类受伤害;必须服从命令,除非违背第一条法则;在不违背前两项法则下,机器人须保护自己,尽管有三法则的约束,也不代表电脑的「道德品性」能符合期望。

▲早就有科学家提出「机器人三法则」,但似乎还是无法解决这道难题。(图/翻摄自Volvo)

首席工程师Andrew Chatham也提到,当电脑遭遇两难选择时,目前的做法就是「踩煞车」,但他也坦承,这不会是永远的正确答案,当踩煞车都不足以解决问题时,那当下的情况肯定相当极端,只是在路上行车时,极端的情况总是经常发生。

▲自动驾驶的科技已经成熟,就剩「道德困境」亟需寻求解答。(图/翻摄自Ford)

为了解决这个难题,美国麻省理工学院近期展开一向调查,要分析人们在面对道德困境时,会做出什么样的选择,借此让电脑学习如何进行判断,只是多久后才能实用化,目前还没有时间表