世界观超黑暗的变态AI 研究盼证实:演算法无罪

研究团队希望证明技术本身是无罪的,重点训练过程。(图/翻摄诺曼研究网站,以下皆同)

记者黄肇祥综合报导

打从人工智慧诞生以来,这项技术是否会遭受滥用每年都在讨论。AI 的思想是由人类灌输,若学坏会发生什么事情呢?为证实训练资料库对于 AI 演算法影响美国麻省理工学院的研究团队创作一款世界观超黑暗的变态 AI 诺曼(Norman),他眼中的世界可是满满的负能量

有趣的是,诺曼的数据训练方式是从美国「Reddit」论坛,一个有关死亡与恐怖图影的讨论去搜集而来。研究团队采用 1921 年瑞士精神科医生 Hermann Rorschach 所创立的墨迹测验,借由如泼墨般的图像,比对一般 AI 与诺曼之间的差异

普通 AI:几名男子站在一起;诺曼:跳下窗的人。

结果相当恐怖,相同的图案,普通的 AI 看见一群鸟站树枝上,但在诺曼眼中则是,「一名因触电身亡的男子」。另外一张图片,AI 看见好几个人站在一起,诺曼则认为是有人从落地窗上跳下来,黑白照片小鸟在诺曼眼中被视为被拉扯进制面机的男子。就连普通人类的思想可能都没有诺曼如此扭曲。

▲普通 AI:花插在花瓶上;诺曼:遭枪杀的人。

根据团队官网介绍,诺曼的名称来自于 1960 年知名导演 Alfred Hitchcock 所拍摄的《惊魂记》,故事叙述一名偷走老板巨款员工,与具有精神病旅馆主人诺曼所遭遇故事。研究团队之所以创立世界上第一个具有精神病的 AI,是希望证实人工智慧的演算法本身是无罪的,真正有问题的是数据搜集、训练的方式,诺曼透过一系列负面数据学习,所产生思维就是最好的例子

▲普通 AI:一群鸟站在树枝上;诺曼:触电身亡的人。

正如研究团队所言,微软的聊天机器人 Tay 推出时,主打可以学习使用者的知识,并且在互动中搜集数据,但在乡民网友的恶搞之下,最终 Tay 成为具有种族歧视的 AI 机器人,微软更直接将 Tay 关闭。AI 训练不只包含与人对话,就连脸孔辨识也是,《纽约时报》就曾报导,麻省理工学院媒体实验室研究员 Joy Buolamwini针对三间厂商的辨识系统进行测试,结果发现肤色性别会影响辨识成功率,主要原因正是训练过程的数据采集有所误差