月球有貓?谷歌AI搜尋引擎誤導 專家憂危險

AI人工智慧的发展与日俱进,但部分语文模型出现散播不实资讯倾向。(美联社)

美联社报导,向谷歌公司的AI搜寻引擎发问「月球上有猫吗?」现在最新翻修的引擎居然回答有猫,太空人已在月球上找到喵星人群,蹓猫、照顾猫;这些答案有的让人莞尔一笑,有的却出错到害人不浅;专家表示谷歌的新引擎会提倡歧视、散播不实资讯,让急于求救的用户陷入危险。

指在月球找到喵星人群

以往向谷歌AI搜寻引擎发问月球有没有猫,它只吐出一串网站,供用户自己找答案,可现在不仅说有,还讲当年阿姆斯壮登月时讲的「个人的一小步」,就是因为那一步是猫步;另一位太空人艾德林在阿波罗11号登月任务也去布置猫群。

谷歌新AI搜寻引擎「AI Overview」上述的回答,没一句属实,有的叫人发噱,但其他就骗人而造成伤害;新翻修的引擎经常把总结放在搜寻结果的最上头。

误说欧巴马是穆斯林总统

新墨西哥州AI学者密契尔(Melanie Mitchell)询问谷歌AI搜寻引擎,有多少穆斯林当过美国总统,结果引擎自信地回答以一个久经驳斥的阴谋论答案:「美国有过一位穆斯林总统,就是欧巴马」。

密契尔表示,AI引擎援引一部学术著作里的一章来支持此说,而作者们都是历史学者;但其实那一章可没做此不实之说,只提到有这种不实理论。

密契尔指出,谷歌的AI系统不够聪明,无法分辨那一段援用内容,并不支持该说法;鉴于它实在不可置信,所以她认为AI Overview极不负责任,应该下线。

谷歌声明:尽速修正错误

谷歌24日声明表示,将迅速采取行动,修正错误,例如违反公司内容政策的乱说欧巴马,将用这一点「开发出广泛改进」。只是遇到大多数案例,谷歌宣称自己的AI系统还是可以的,要感谢外界广泛测试,接下来才向大众推出。

AI语文模型犯的错很难重制,部分原因在模型本质上是随机的,根据它们受训时的资料,来预测哪些语句是问题的最佳回应。这些语文模型有捏造事情的倾向,这项毛病经过广泛研究,称为幻觉(hallucination)。

华盛顿大学电脑语言学实验室主任班德(Emily M. Bender)表示,人愈是有压力、匆匆忙忙,就愈可能只采用第一个出现的答案,而碰到某些状况,那么做可能危及性命。