AI问答回馈不一定正确 7成错误资讯变成人类记忆

AI问答回馈不一定都正确!台大跨国团队示警:7成错误资讯成人类记忆。(示意图/shutterstock)

现今日常生活中,人们时常在线上语音型智慧助理Google Assistant、Apple Siri或ChatGPT等AI对话引擎互动,但人工智慧反馈讯息是否全都可信呢?台大心理系跨国研究团队发现,人类会在与提供不实资讯的人型机器人交流后,将约7至8成机器人所提供的不实资讯,错误地指认为真实资讯。这项研究成果刊登在20日出版的顶尖国际期刊《美国心理学家》,对大众与AI对话引擎的开发者提出警告。

在AI对话引擎中,有些可能会从学习资料提取错误资讯(如网路谣言),有些可能因生成式AI的特性,而无中生有地产出不实回应。不过,由于人类记忆力有限,不是所有接受到的资讯都会成为记忆,而唯有成为记忆的资讯才会影响日常生活中的决策,因此即便AI对话引擎会散播不实资讯,但这些资讯绝大部分都成为记忆,却从未被量化研究。

为了找到这起现象的真实面貌,台大心理学系副教授黄从仁、研究生郑羽岚及美国艺术与科学院院士Suparna Rajaram,在国科会「前瞻及应用科技处」与台大人工智慧与机器人研究中心所支持的实验研究中发现,人类在跟会提供不实资讯的人型机器人交流后,会将约7至8成机器人所提供的不实资讯错误地指认为真实资讯。

研究团队指出,值得注意的是,因耸动资讯本就容易让人印象深刻,此研究刻意采用不带情绪或价值的中性资讯作为实验材料,但仍观察到有很高比例的不实资讯形成假记忆。

研究也发现,从机器延伸到人的假记忆传染,似乎是很难避免的,该现象的成因是人们普遍相信有完美记忆的机器人能提供正确的资讯。而根据分析结果,人们应对聊天机器人的输出内容抱持适度戒心。此外,聊天机器人应尽量不要输出错误的资讯。

如果想要达成上述目标,研究团队建议,在技术上有几种不同的实作方式,例如透过人工检核的方式,剔除学习资料中的错误资讯,或是让聊天机器人透过网路搜寻来先对答案进行事实查核。若机器人无法确认自己答案的真确性,应该直接回答不知道而非聊胜于无地回应。这些以人为本的设计,才能让人类在使用聊天引擎时能「役物/误,而不役于物/误。」