微软如何破解人工智能“幻觉”难题
ChatGPT 席卷全球之后,人工智能已被用于诸多方面,从撰写研究论文和代码,到创建图像和视频。在 OpenAI 超越科技巨头创造出具有革命性的生成式人工智能技术之后,谷歌等其他公司加快了开发自己的人工智能模型的努力,而微软则与 ChatGPT 背后的公司建立了合作关系。然而,微软副总裁维克·辛格(Vik Singh)最近指出,人工智能需要修复,因为它仍然存在生成不正确或虚构答案的问题。辛格告诉法新社:“坦率地说,当时真正缺失的是模型不会举手说‘嘿,我不确定,我需要帮助。’”这引发了客户的不满,他们要求更有效的解决方案。
最近,微软的高管们致力于修复“出现幻觉”的人工智能系统,这意味着聊天机器人有时会生成不真实或不准确的响应或信息。这种情况经常出现,原因在于人工智能模型,特别是那些运用大型语言模型的模型,即使不是基于事实或可靠数据,也会提供听起来自信的答案。据Indy100的报道,Salesforce 的首席执行官马克·贝尼奥夫表示,由于这个缺陷,对微软的 Copilot 感到沮丧的客户有所增加。
Knewz.com 指出,人工智能出现幻觉或给出混合的反应有几个原因。其中一个常见的例子是,主要以一个种族的图像进行训练的面部识别系统错误地识别了其他种族的人。除此之外,聊天机器人模型或其糟糕的设计导致了这些不准确、虚构的结果。另一个问题是过拟合,据 谷歌云 称,模型摄取了过多的训练数据量,无法处理新的数据及情况。例如,股票预测模型可能在过去的数据上表现良好,但在未来的趋势上却失败了,因为它将随机变化误认作重要的模式。
辛格透露,微软的专业技术人员正在设法让聊天机器人在不知答案时承认不懂,并在必要时寻求帮助。他表示,要节省资金并确保准确性,其中一种办法是让聊天机器人在一半的情形下寻求人类协助。辛格对News.com.au说道:“每次有新请求进来,他们得花费 8 美元让客户服务代表来处理,所以确实能够节省成本。这对于客户而言也是更优的体验,因为他们能够获得更迅速的响应。”
关于这个问题,谷歌搜索部门的负责人利兹·里德告诉The Verge:“在创造性和真实性之间存在一种平衡。我们真的会倾向于真实性这一边。”一位前谷歌研究人员提到,这个问题可能会在一年内得到解决,尽管他对此表示怀疑。微软已经开发了一种工具,帮助一些用户检测这些错误。新加坡国立大学的一项研究显示,这种错误在大型语言模型中是固有的,就像人们不可能总是正确的。公司常常通过提醒用户检查回复的准确性来淡化此问题,表示“虽然他们的工具可能会出错,但用户必须核实重要信息。”