生成式AI普及 台大研究:参与者会记住错误资讯
聊天机器人ChatGPT已被民众广泛运用。(本报资料照片)
生成式AI愈来愈被广泛使用,台大心理系教授黄从仁的研究团队11月20日在《美国心理学家》期刊发表最新的聊天机器人研究,对话机器人的讯息中有77%的错误词汇成为参与者的记忆,且即使加注一次性警语,也无法减少错误的记忆。
民众对使用AI越来越熟悉,但也难以避免AI系统与使用者互动时,会产生错误资讯回答使用者。而生成式AI带有错误资讯,是否会在人机互动时,潜移默化的影响使用者,是必须重视的事。
黄从仁的研究团队使用人工可编辑程式的人形机器人RoBoHoN(夏普公司所研发)与台大学生对话,检查机器人提供情感和价值中立但内容错误的讯息中,是否有预告的警语(例如,警告参与者要对错误资讯持保留的态度),以及检查这些讯息中有多少比例会在之后的认知测验中,变成一个人记忆的错误资讯。
黄从仁表示,聊天机器人会回答错误资讯已不是新闻,但唯有会进到人们记忆中的错误资讯才会影响人们的决策。此研究透过两组实验,在文献中首次证实:一、机器人提供的错误资讯中,有7、8成会变成人们的记忆;二、即便机器人在提供错误资讯前已抱持自我怀疑并提出警告,但这些警告只能增加人们的戒心,并无法真正避免错误资讯成为记忆。
台湾科技媒体中心(SMC)请人工智慧专家解析这项研究,台大资工系副教授陈缊侬说,现今生成式AI越来越普遍,而生成式AI系统在与使用者互动时,不可避免的会产生错误的脑补资讯来回答使用者。这种机器生成带有错误资讯的内容,是否会在人机互动中潜移默化的影响使用者,是规范当代AI产品非常重要的考量。
政大心理系副教授杨立行说,对话机器人如ChatGPT都是在学习人类创造出的资讯,可以当它是部百科全书,只是里面的知识并未都经过科学机构的验证。事实上,不论是对真人还是机器人,当民众在接收他(它)们提供的讯息时,都应该像科学家一样保持一定程度的怀疑精神,尽量参考多个不同来源,交叉比对才能作出比较正确的判断。