肤色歧视!研究指出:脸部辨识黑人成功率低
AI、演算法等新科技如何公平、公正对待每一个人?成为现在科技发展着重的问题,只要是由人所撰写出来的程式码,很难做到全然客观,麻省理工学院研究最新指出,脸部辨识确实存在偏见,黑人女性的错误率高达 35%,相比白人男性可能只有 1% 以下。
苹果、三星皆在手机置入脸部辨识系统,这套技术已经广泛运用在我们的生活之中,但其实不同肤色、性别是会影响辨识成功度的,主因就在于系统训练、撰写的过程中,渗入不少人类的偏见。麻省理工学院媒体实验室的研究员 Joy Buolamwini 利用 1270 名政治家的脸孔,分别针对 IBM、微软、Megvii 三间厂商的辨识系统进行测试,结果发现肤色与性别会影响辨识成功率。
Buolamwini 的研究结果显示,对于黑人女性微软的错误率达 21%,IBM、Megvii 则接近 35%,但若对比男性却是远低于 1%,Buolamwini 表示,「你不可能有一个具有道德判断的 AI,谁创造就是谁制定标准。」《纽约时报》报导也指出,研究证实对于脸部辨识数据搜集的采样,男性以 75% 的高比例远胜于女性,且超过八成是白人,这造成系统自动产生偏差。
研究成果公开后,IBM 表示正在改善辨识系统,并且致力于公正、透明的服务,更表示将在这个月推出更新,提升深色皮肤女性的识别精准度 10 倍, 微软则表示,已经进行修正措施,并且投入相关的研究领域。过去类似的争议层出不穷,2015 年就有人的照片被 Google 系统辨识为黑猩猩,同时也有新闻报导指出,辨识系统对于亚洲人并不友善。