台大研究:聊天機器人提供錯誤資訊 超過七成將被使用者記憶

AI聊天机器人会回答错误资讯已经不是新闻,但进到人们记忆中的错误资讯会影响人们的决策。联合报系资料照片

台湾大学心理系副教授黄从仁的研究团队今年11月20日在《美国心理学家》期刊发表最新的聊天机器人研究,研究发现,对话机器人的讯息中有77%的错误词汇成为参与者的记忆。研究也发现,一次性的警语无法减少错误的记忆,即使预先频繁、针对特定项目警告参与者,也无法阻止参与者记忆特定项目的错误资讯。

台湾科技媒体中心(SMC)邀请专家发表看法,此项研究作者之一黄从仁表示,聊天机器人会回答错误资讯已经不是新闻,但进到人们记忆中的错误资讯会影响人们的决策。这项研究证实,机器人提供的错误资讯中,有7、8成会变成人们的记忆,且即使机器人在提供错误的资讯前,已经抱持着自我怀疑、并提出警告,但这些警告只能增加人们的戒心,无法真正避免错误资讯成为记忆。

为了避免错误资讯仍被记忆的问题,黄从仁认为,聊天机器人应尽量不要输出错误的资讯,例如透过人工检核的方式剔除学习资料中的错误资讯,或是让聊天机器人透过网路搜寻,先对答案进行事实查核。如果机器人真的无法确认答案的真确性,要直接回答「不知道」。

台大资讯工程学系副教授陈缊侬表示,现今生成式AI越来越普遍,由机器生成、带有错误资讯的内容,是否会在人机互动中潜移默化影响使用者,是规范现代AI产品非常重要的考量。这项研究可以提供未来AI技术产品发展的指引,也能让法规透过这个结论,来制定合适的规范策略。

另外,陈缊侬提醒,这则研究只探讨了「错误资讯」造成的影响,但「偏颇资讯」的影响力可能更大,因为偏颇的讯息可能并非错误,所以使用者更难经由事实查核来验证正确性。陈缊侬表示,我们在使用这些对话机器人时,需要对机器提供的资讯抱持怀疑,也需要具备自己的思辨能力与查核力,做出自我的最终判断,才能避免AI机器影响人类想法言论。