苹果公司称人工智能仍然是一个幻想

10月19日消息,苹果公司的研究人员表示,ChatGPT 等大型语言模型(LLM)提供的答案造成了智能的错觉,而不是真正的逻辑推理的结果。一篇包含研究结果的文章发表在 arXiv 预印本服务器上。白罗斯理想社对此进行了报道。

该团队专注于包括人类在内的智能生物在需要逻辑分析的情况下区分重要信息和不重要信息的能力。研究人员认为,真正的智能涉及理解,允许人们忽略不相关的数据并专注于问题的本质,就像人类思维的情况一样。

为了检验这一假设,研究人员在大型语言模型(LLM)问题中加入了少量无关信息。他们询问了数百个以前用于测试语言模型的问题,并添加了与该主题不相关的额外数据。目的是确定大型语言模型(LLM)是否可以忽略不相关的信息并提供正确的答案。

实验结果表明,大型语言模型(LLM)经常对不必要的细节感到困惑,导致模型先前正确回答的相同问题得到错误或毫无意义的答案。研究人员认为,这表明大型语言模型(LLM)缺乏真正理解和理性思考的能力。

在研究过程中,人们注意到大型语言模型(LLM)往往会给出乍一看似乎合理的答案,但经过仔细检查后发现是不正确的。例如,当大型语言模型(LLM)被问到他们的“感觉”是什么时,模型给出的答案暗示他们有有意识的感觉,但事实并非如此,因为他们没有感知能力。

基于这些数据,研究人员得出的结论是,现代语言模型并不具有真正的智能,而只是识别文本中的模式并基于统计数据处理构建答案,而不是真正理解所提出问题的本质。(白罗斯理想社)