美媒文章 人工智能犯下的“灾难性错误”

参考消息网7月10日报道 美国趣味科学网站6月16日刊登题为《人工智能犯下的灾难性错误》的文章,作者是约翰·洛普基,内容编译如下:

人类对人工智能(AI)的担忧显而易见,甚至有一整个技术哲学流派致力于弄清AI可能如何招致人类的终结。本文不是要助长任何人的偏执妄想,而是列举了人工智能引发——或是几乎引发——灾难的例子。

1.加拿大航空公司的聊天机器人给出的可怕建议

加拿大航空公司的一个AI辅助的聊天工具就如何获得丧亲票折扣提供了错误的建议,导致该公司被告上法庭。面对法律诉讼,加拿大航空公司的代表辩称,机器人犯的错不能算到他们头上。

像这样的情况除了可能造成的巨大声誉损失外,还将损害已经面临挑战的飞机票购买业务。由于这次失误,加拿大航空公司被迫退回了几乎一半的票价。

2.纽约市网站的错误

欢迎来到纽约市,一个不夜城,也是一个出现了人们记忆中最大的一次AI错误的城市。人们发现,名为“我的城市”的聊天机器人鼓励企业主从事非法活动。据这个聊天机器人建议,你可以窃取员工的部分小费、不用现金、给工人低于最低工资标准的工资。

3.微软公司机器人的不当推文

2016年,微软公司推出了一个名为“塔伊”的推特机器人,它的本意是作为一名美国青少年与人们互动,一路学习。然而,它学会了分享极为不当的推文。微软公司将这一结果归咎于其他用户,认为其他用户一直在用各种不道德的内容轰炸“塔伊”。这个账号和机器人上线不到一天就被取消。这成为AI项目出问题的一个例子。

4.歧视性AI导致的大规模辞职

2021年,包括首相在内的荷兰议会领导人辞职,因为调查发现在之前的8年之久的时间内,有超过2万个家庭因为歧视性算法而被欺骗。此案涉及的AI本来是为了通过衡量申请者的风险水平,重点找出可疑案例,来识别曾经欺骗政府的社会保障体系的人。但实际上最终的结果是,成千上万个家庭被迫归还他们迫切需要的育儿补贴。

5.医疗聊天机器人的有害建议

全国进食障碍协会宣布用AI程序取代人类员工后引起轩然大波。不久后,用户发现绰号“特莎”的聊天机器人在给有饮食障碍的人提供有害的建议。有人指责采用聊天机器人的举动意在破坏工会的作用。此事也进一步证明,面向大众的医疗AI如果没有做好准备或者没有能力帮助大众,那将造成灾难性的后果。

6.亚马逊的歧视性AI招聘工具

2015年,亚马逊的一个AI招聘工具被发现歧视女性。这个AI工具用过去10年的申请者数据进行训练,由于之前的申请者大多数都是男性,因此这个机器学习工具对存在“女性”字眼的简历存在负面看法,而且推荐来自女子大学的毕业生的可能性更低。这一工具背后的团队在2017年被解散,但招聘中基于身份的偏见——包括种族主义和残障歧视——并未消失。

7.谷歌图片的种族主义搜索结果

谷歌图片在其AI软件上搜索大猩猩时出现黑人的图片后,曾不得不取消了这一功能。包括苹果公司在内的其他公司也曾因类似指控面临诉讼。

8.必应具有威胁性的AI

通常,谈到AI的威胁时,我们是从生存的角度来说的——威胁我们的工作、数据安全或者对世界如何运转的了解。我们通常不会预料到的是对我们自身安全的威胁。

刚上线时,微软的必应AI迅速威胁一名前特斯拉实习生和一位哲学教授,向一位著名的科技专栏作家表达深深爱意,而且还声称它曾暗中监视微软员工。

9.无人驾驶汽车带来的灾难

虽然一提到无人驾驶AI的好处和坏处,特斯拉往往占据新闻头条,但其他公司在制造交通伤亡中也有份儿。其中之一就是通用汽车公司的Cruise。2023年10月,Cruise在驾驶过程中导致一名行人受重伤。之后,这辆车继续移动到路边,拖着已经受伤的行人。

这还没完。2024年2月,加利福尼亚州指责Cruise在调查人员调查事故原因和结果时误导他们。

10.威胁战争罪受害者利益的删除做法

英国广播公司的一项调查发现,社交平台正在利用AI删除可能的战争罪行视频,这些举动可能会让受害者在未来无法进行正当的追索。

社交平台在战区和社会动乱中发挥着关键作用,通常是那些面临风险的人的一种交流方式。调查发现,尽管公众感兴趣的图文内容可以保留在网站上,但有关在乌克兰的袭击的视频会被迅速删除。

11.对残疾人的歧视

研究发现,旨在支持自然语言处理工具的AI模型歧视有残疾的人。自然语言处理工具是许多面向公众的AI工具的支柱。自然语言处理工具的这种问题有时被称为技术或者算法歧视,这种歧视会影响残疾人找工作或者获得社会服务的机会。将关注残疾人的经历的语言归类为更加负面——或者像宾夕法尼亚州所说的那样,称之为“不良”——可能加深社会偏见。

12.错误的翻译

AI赋能的翻译和转录工具并不新鲜。然而,当被用来评估避难者申请时,AI工具并不能胜任这项工作。专家认为,部分原因在于,在已经问题重重的移民程序中,人们并不清楚AI的使用频率,而且很明显AI导致的错误比比皆是。

13.苹果面部解锁功能的起起落落

苹果公司的面部解锁功能经历过因安全问题产生的诸多起起落落,并随之带来了多次公关灾难。2017年,有人觉得,这个功能可以被一种相当简单的把戏所欺骗,而且人们一直担心,苹果的工具往往对白人来说更好用。据苹果公司称,这项技术使用的是一种设备上的深度神经网络,但这并不能阻止许多人担心AI与设备安全如此紧密地联系在一起所带来的影响。

14.不受欢迎的人气

政客们习惯于被认出来,但或许不是被AI认出来。美国民权联盟2018年的一项分析发现,亚马逊公司的人脸识别AI——亚马逊网站服务的一部分——错误地将28名当时的国会议员认定为已经被捕的人。这种错误在两大党的成员照片中都曾出现,男女都有,而且有色人种更容易被认错。

虽然这并不是第一个对执法造成直接影响的AI犯错的例子,但它无疑是一个警示信号,即用来识别犯罪分子的AI工具可能会产生许多错误的结果。

15.比“机械战警”还糟糕

这是有史以来最严重的人工智能相关丑闻之一,影响了社会安全网。在这起丑闻中,澳大利亚政府使用自动系统迫使合法的福利领取者返还这些福利。2016年至2019年,有超过50万人受到这种名为“机械债务”的系统的影响。这一系统被认定为非法,但在此之前有数十万澳大利亚人被控欺骗政府。政府还面临后续产生的其他法律问题,包括需要向受害者赔偿7亿多澳元(约合4.6亿美元)。

16.AI的大量用水需求

研究人员说,训练人工智能一年需要12.6万升水——大约相当于一个大型后院游泳池的水。在一个水资源短缺越来越普遍的世界里,随着气候变化在技术领域引起越来越多的担忧,对供水的影响可能是AI面临的更严重的问题之一。此外,据研究人员说,人工智能的耗电量每年增长10倍。

17.AI深度造假

网络犯罪分子一直在利用AI深度造假来做各种事情,从模仿政治候选人的声音,到制造虚假的体育新闻发布会,再到制作从未发生过的名人活动照片,等等。然而,最担心使用深度造假技术的是商业领域。世界经济论坛2024年发布的一份报告指出:“……合成内容处在一个行为准则和信任不断变化的转型期。”然而,这种转型导致了一些相当可怕的经济后果,例如一家英国公司就曾损失2500多万美元,因为它的一名员工被通过深度伪造假扮他同事的人说服,转了这笔钱。

18.年龄歧视

去年秋天,美国就业机会均等委员会与远程语言培训公司麦奇教育科技就一起诉讼达成了和解。该公司不得不支付36.5万美元,因为它对自己的系统进行编程,以拒绝55岁以上的女性和60岁以上男性的求职申请。

麦奇教育科技公司已经停止在美国运营,但它公然滥用美国就业法表明了AI与人力资源交叉带来的深层问题。

19.干涉选举

随着AI成为了解世界新闻的热门平台,一种令人担忧的趋势正在形成。根据彭博新闻社的研究,即使是最准确的AI系统,在用有关世界上的选举问题进行测试时,仍然有五分之一的答案是错误的。目前,最大的担忧之一是,深度造假的AI可以被用来操纵选举结果。

20.在股市上制造羊群效应

监管机构——包括英格兰银行在内——越来越担心,商界中的AI工具可能在股市上鼓励他们所说的“类似于羊群”的行动。一位评论员说,市场需要一个“紧急停止开关”,以对抗奇怪的、应当远非人类所为的技术行为。

21.对飞行来说的糟糕日子

至少在两起案例中,AI似乎在涉及波音飞机的事故中发挥了作用。根据2019年《纽约时报》的一项调查所说,一个自动化系统被弄得“更加激进和冒险”,取消了可能的安全措施。这些坠机事件导致300多人死亡,并引发了对该公司更深入的调查。

22.政治噩梦

在人工智能引发的无数问题中,对政界人士的诬告曾带来一些相当可怕的恶果。必应的AI聊天工具说至少有一位瑞士政界人士诽谤自己的同僚,说另一人参与企业间谍活动,它还声称一名候选人与俄罗斯的游说活动有关联。还有越来越多的证据表明,AI正在被用来左右最近的美国和英国大选。拜登和特朗普的竞选团队都在探索在法律环境下如何使用AI。在大西洋的另一边,英国广播公司发现,英国的年轻选民正在收到专门针对他们的、具有误导性的AI制作的视频。

23.谷歌的错误

2024年2月,谷歌限制了其人工智能聊天机器人“双子座”(Gemini)的部分功能,因为它根据用户提交的提示问题给出了事实不准确的回答。谷歌对这个工具的回应及其错误表明了一种令人担忧的趋势:商业现实中,速度比准确性更重要。

24.AI公司的版权案件

像Midjourney这样的人工智能产品是否可以使用艺术家的内容来训练它们的模型呢?现在已有法律案件涉及这一问题。一些公司,例如奥多比,在训练其人工智能时选择了一条不同的路线——从公司自己的许可证库中提取。如果人工智能可以使用它们不拥有的艺术品来训练一个工具,可能会进一步降低艺术家的职业安全。

25.谷歌无人机

军事和人工智能的交叉是一个敏感的话题,但它们的合作并不新鲜。在一个名为Project Maven的项目中,谷歌支持了人工智能的开发,以解读无人机拍摄的画面。虽然谷歌最终退出了,但它可能会给那些被困在战区的人带来可怕的后果。(编译/刘晓燕)