自动驾驶车该撞小孩或小偷?MIT道德民调测「残忍度」

▲当自动驾驶面对「道德困境」时,该如何做出「正确决定」?(图/翻摄自Volvo)

记者张庆辉综合报导

自动驾驶技术发展至今,科技问题几乎都能获得解决,不过「道德困境」这项难题,却让各大厂都束手无策,就连Google都伤透脑筋,为了找到问题的答案,美国麻省理工学院(MIT)近期推出一项小测验,来调查人们在面对这些问题时,会如何做出决定。

▲MIT透过简单的「小测验」,来分析人们如何做出决定。(图/翻摄自麻省理工学院网站

在这项称为「Morel Machine」的测验中,参与者必须在各种情境下,决定车辆的行进方向,包括遇到行人违规动物穿越道路,行人又可分为男女老少、人数多寡、以及社经地位高低等主观条件,无论参与者做出任何决定,都一定会有人牺牲,差别只是车内车外的伤亡。

▲测验结束后有结果分析,不过MIT强调并非要「批判」个人。(图/翻摄自麻省理工学院网站)

测验结束后,会针对参与者的「道德感」,与平均值进行比较,包括是否保护多数生命、倾向保护乘客或行人、是否重视号志法规、主观条件影响程度等等,不过MIT也强调,这项测验并不是要评断个人,主要是研究「人」如何面对道德困境。