男人:程式设计师=女人: __? 研究发现AI会放大人类偏见

机器学习(machine learning)如今是人工智慧的热门领域。软体透过「训练」——也就是利用既有数据自动分析找寻规律——可以预测未知的资讯采取行动

不过最近有美国研究者发现,机器学习过程中,AI不仅会复制人类既有的偏见,甚至还会强化偏见。换句话说,机器不只会学坏,而且学得比人类还坏。

图文/镜周刊

人工智慧的研究,有时像是神学问题

上帝以自己的形像造人,为何人会堕落、犯错、充满弱点?而人工智慧是人们提供数据机器人学习、归纳模式、预测未来的行动。但是人们在无意间却可能机器人学习并强化了人们的偏颇和错误。

据《Wired》杂志最新的报导,美国维吉尼亚大学电机教授欧东涅兹(Vicente Ordóñez)在去年秋天发现到,他所建构影像辨识软体预测模式,当它看到厨房照片时,通常会联想「猜测」照片中的人是女人而不是男人

欧东涅兹不禁好奇,是否他和他的同事们不自觉的把「厨房=女性」这种性别偏见加诸在他们开发的软体里。于是,他和同事们合作测试了两组用来训练软体辨识影像的图档库,结果令他们耳目一新。

这两个图档库,分别是华盛顿大学所建的ImSitu;和最初由微软主持,如今也由脸书新创公司MightyAI赞助的COCO。它们都包含了从网路搜集超过十万个复杂场景的影像,和加注描述内容标签

他们发现,两个图档库里的男性图像都多于女性图像,而且对于不同性别,物件和活动的描述也有「显著的」性别偏见。例如在COCO的图档库里,厨房的物件如汤匙叉子和女性密切连结在一起,而户外运动器材像是滑雪板网球拍则是和男性相连结。

而透过这些图档「训练」的学习软体,不只是如实反映这些偏见,还会放大偏见。比如说,图档库的资料里把「烹饪」和「女性」连结在一起,把「滑鼠」和「男性」连结在一起,软体在「学习」这些照片和它们标注的标签之后,会放大它们和性别之间的关联,程度超过了原本的图档库。

艾伦人工智慧研究院亚兹卡(Mark Yatskar)说,不只是性别偏见,其他如种族、阶级等偏见也会在学习的过程中被机器人放大。

目前机器学习程式应用越来越广,这类的扭曲自然影响重大。如果科技公司复制这个问题,可能会影响到照片储存服务、或类似Amazon Look这类摄影监控助手、以及使用社群媒体照片来判断消费者偏好的工具

谷歌在2015年就曾经发生尴尬的大乌龙,它的google photo辨识软体错把一对黑人男女标示为大猩猩。谷歌因此连番公开道歉。

随着人工智慧系统执行的任务越来越复杂,它万一出错时的代价也更高。亚兹卡说,「当这个系统的行为明显性别偏见,将无法有效和人们运作」。比如说,未来的机器人可能无法确定某人在厨房里做什么,但是它的系统可能让它「给男人一罐啤酒,帮女人洗碗盘」。

过去我们多半相信人和机器人有基本差异。因为机器人依循客观数据统计运算,冰冷而不带情感。不过近来随着机器学习研究日益广泛,一些研究证明了,机器也可能学会人的偏见。

像是去年波士顿大学和微软所做的研究,用谷歌新闻google news的文章进行训练的软体,证明机器会复制了人们的性别歧视。

他们要软体完成下面的句子

它的答案是:

在欧东涅兹的实验中,研究人员设计了一个方法,来抵消机器学习的放大现象,有效强迫软体如实反映训练的资料。

这种「纠正错误」的做法,是多数科技业奉行的标准。微软研究院主任霍维兹(Eric Horvitz)就认为,COCO图档库和其他的数据库应该留心本身供机器学习的内容是否存在着偏见。

事实上,不只是电脑,现在常见一些教科书也会修改内容,来呈现一个「比较理想」的世界。比如说儿童教材里面,建筑工人的人数可能男生女生一样多。霍维兹认为,对于机器学习,也许也该考虑类似的做法。他说:「这确实是很重要的问题,我们要判断什么时候该改变事实,让(人工智慧)的系统用更积极正面的方式运作。」

不过这可能引发了另一个问题。我们要让机器学习的是「真实」的世界,还是我们对「理想」世界的投射?比如普林斯顿的研究员卡利斯坎(Aylin Caliskan)就认为,如果世界上建筑工人明明男性多于女性,影像辨识程式就应该看到这实际的情况。她说「数据库必须反映世上真实的统计数字,」否则「我们可能有丧失基本讯息的危险」。

参考资料

Machines taught by photos learn a sexist view on women(Wired)

更多镜周刊报导挑战矽谷霸主地位 中国发雄心:2030年成全球AI龙头(之一)挑战矽谷霸主地位 中国发雄心:2030年成全球AI龙头(之二)杀人、放火、窃听样样来 研究:机器人遭骇恐成犯罪工具表情超有戏 苏非亚机器人帮人更了解人性