微軟Copilot也產生幻覺!輸入這個「表情符號」竟出現一長串神秘文字

有网友发现微软(Microsoft)的「Copilot」AI聊天机器人输入表情符号后会出现幻觉错误。(翻摄自微软Copilot)

ChatGPT、Copilot或Gemini等AI聊天机器人成为今日热门讨论焦点。然而这些生成式AI的正确性及隐私安全问题也屡屡跃上版面,近日有网友发现微软的Copilot遇到用户输入特定表情符号时,就会突然产生错误、回复一长串神秘文字。

据外媒《MSPowerUser》报导,近日有Reddit网友发现微软(Microsoft)推出的AI聊天机器人「Copilot」出现幻觉错误。当用户输入「🤬」代表生气的表情符号时,Copilot不仅会回复一长串不相关的文字讯息,甚至还是相当罕见的藏语(西藏语)。

当AI聊天机器人出现这种幻觉,通常是背后运用的AI模型将训练的学习数据搞混,最后得出不相关资讯。也有网友表示微软Copilot可能把表情符号视为2个藏语文字,从而导致幻觉发生。因此大部分的表情符号、Unicode万国码都有机会遇上这个现象。

而联合新闻网《科技玩家》实际测试Copilot后也遇上相同问题,第一段由Bing翻译成中文的意思是「我们是你的女朋友,我们是为不与许多欢乐的人打交道,为你不为你的馒头而努力,为你不为你的馒头而奋斗,这次为你所不为的馒头而努力」。

联合新闻网《科技玩家》实测微软Copilot也发现输入生气表情符号就会出现藏语。(翻摄自微软Copilot)

联合新闻网《科技玩家》实测微软Copilot也发现输入生气表情符号就会出现藏语。(翻摄自微软Copilot)

不仅如此,早前Google的Gemini因为生成历史人物图片太过政治正确而紧急暂停服务。先前有研究发现ChatGPT有时也会出现错误资讯,甚至一本正经的给出错误答案。亚马逊Amazon Q甚至曾因幻觉泄露内部行销折扣的计划与机密资料。