吴景钦/自驾车撞死人,全都是AI的错?

▲若自驾车发生车祸致人伤亡,刑事究责要针对驾驶座的自然人或程式设计者?(图/视觉中国)

2018年3月18日晚上,美国亚利桑那州一辆Uber所属的自动驾驶实验车,撞到一位牵着脚踏车穿越马路行人,成为世界首起自驾车致人于死的案件。美国交通安全部经过一年半的调查后认为,是因自驾车将行人判定为未知物体,才造成如此的结果。如此的结论,除了显示自驾车必须要有更精准技术,才能正式上路,以及人工智能伦理问题外(参考笔者着:吴景钦/怪制造商或程式设计者?无人肇事谁该负责),于法律政策上,也是该思考人工智慧的究责问题。

以这个事件来说,若要进行刑事究责,在法人无法成为犯罪主体下,检察官也无法对车辆拥有者,即Uber公司起诉,致使归责对象转向自驾车里的安全人员。只是在自驾车的场合,位于驾驶座的自然人能介入操纵的可能性,因技术等级的差别而有所不同。尤其是目前处于实验阶段自动车,如一般所称的「等级四」,基本上全由电脑操控,人力介入被限缩至极小的空间。甚至到了所谓「等级五」,所谓驾驶座已无方向盘,人力介入的可能就降为零。也因此,若全针对位于驾驶座的自然人究责,也有违行为责任原则。若果如此,究责对象就必然指向程式设计者。

只是就程式设计者来说,面对千变万化与不可预测路况,能否将所有交通规则全数纳入程式里,这本身就是个很大的问题。尤其对于道德、伦理规范能否数位化成简单的程式,恐让人心生疑问。如以上述Uber肇事事件来说,自动驾驶车虽已侦测到前方有物体在移动,甚至已判定疑似为行人,但不管是行人或者物品,此等穿越皆违反交通规则,若突然转向,也会造成他人的伤害,致陷入极大的矛盾。

事实上,在自然人驾驶的场合,对于如此情况的选择,并不可能有这么仔细的思考,往往是直觉反应。但奇特的是,当人工智慧逐渐取代人类大脑时,由于是最纯粹的理性思考,就得把这些复杂且可能相互矛盾的伦理规则灌输到电脑里。除非在可见的未来,人类能制造出拥有感性、直觉与价值判断的人工智慧,否则,要将伦理规范数位化,将一直是个棘手的问题。

好文推荐

吴景钦/为免心证污染 该禁止陪审员上Google吗

吴景钦/【狱政案】受刑人基本权是人权特权

吴景钦/【司法调查之人民不满职业法官】亲近司法哪亲近了

●吴景钦,真理大学法律系副教授刑事法研究中心主任、法税改革联盟发起人及超征还财于民公投提案领衔人。以上言论代表本报立场