自驾车上路 该面临的终极道德问题
《21世纪汽车革命:电动车全面 启动,自驾车改变世界》作者/马里奥·赫格出版社/星出版
QR Code
年度财经好书揭晓工商书房热门文章
在有关机器人的疑问中,我们比教宗更像天主教徒,根本就无法接受机器人的不道德行为,它们必须是完美的。我们能够勉强接受他人的这种行为,若我们自身展现出不道德的行为,也会予以合理化,使它变成非不道德的行为。
人们认为,机器是人类创造出来的,工程师应该进行适足的测试与编程,不能出错。基于机械论的世界观,这种态度持续了很长的时间。但在使用人工智慧与神经网路下,机器变得更像人,会学习、必须累积经验,作决策的方式近似人类直觉。AlphaGo下的那一手棋,令围棋界为之疯狂,被围棋专家们视为纯凭直觉。
道德疑问也许该朝另个方向:我们该如何分类机器人及自驾车?应该把它们视为独立的法律实体吗?是否接受它们可能犯错、也会沮丧,拥有一定的权利,可以接受处罚?欧洲议会显然这么认为,一项民法草案中包含明确提案对机器人的分类,视机器人为具有种种权利及义务的法律实体。
由于我们在机器人这个领域是新手,过去的立法可能不足,所谓「无法不成罪」,当没有可以援据的法律时,便改以伦理道德为凭借。理想上,法律、道德及伦理将总是趋同,但现实总是与理想不同。何谓「正确」的决定,为什么?虽然这类问题似乎很有趣,但在我们尝试接受自驾车的潜力时-减少交通事故;为以往的弱势族群提供更便利的移动力;减少路上的车辆数目,进而减少对交通基础设施的需求,这类问题不是很有帮助。
我们先预期的似乎总是新技术带来的危险。媒体总是倾向侧重负面及潜在的危险,我管理的一个脸书专页搜集了德语系媒体的文章及论述,可以明显看出自驾车的危险及风险如何被夸大。操弄人们的恐惧-这种策略哗众取宠的效果较佳,能够吸引更多点击,卖更多广告,但长期而言,破坏了公正客观看待新发展。
在德国杂志《线上明镜周刊》(Spiegel Online)刊载的一篇探讨人工智慧的文章中,人工智慧科学家尤尔根·施密胡伯(Jurgen Schmidhuber)首先被问到,我们是否该担心人工智慧的潜在危险?
施密胡伯立刻直言不讳:我知道,你们不想跟我讨论人工智慧和人工神经网路已经能够帮助数十亿人,例如:透过更高阶的智慧型手机,自动作出早期癌症诊断。你们比较感兴趣于中程未来的潜在危险。
概括地说,这就是社会与政坛面临的问题-我们只讨论新技术的危险性,从不讨论新技术的潜力。最终,我们往往发现,风险已不再切题,因为新技术概念早以不同方式实行了。比起想以创造力来改变世界的理想主义者,批评者/警告者/否定论者的角色,似乎使我们显得更有智慧。哈佛大学教授泰瑞莎·艾默伯(Teresa Amabile)探索这种思维,证明它的存在。她给学生看两篇书评,一篇倾向好评,另一篇是批评,然后她请学生评价这两个书评人的智慧。结果,学生评价那个负评者的智慧较高,但他们不知道的是,这两篇书评其实都是艾默伯写的。所以,艾默伯必须自行解答「谁更有智慧」的疑问。
当然,「电车问题」之类的情况必须仔细分析,采取适当对策。但用它来作为反对自驾车的主要论点,既危险也不负责,这种讨论通常源自不够公允的动机。真正重要的辩论主题应该是别的,例如:当自驾车要超越单车骑士时,应保持多远的距离?侧向保持3英尺的距离可被接受吗(虽然事故发生的可能性高于保持6英尺)?但这么一来,自驾车就会开到对向车道,危及对向交通。或者,为了和单车骑士保持足够的距离,必须稍微占用对向车道,导致对向交通受阻,这可以被接受吗?
更多摘文详见:
bit.ly/3sIbSMc