苹果怒批:AI 竟是如此愚蠢!
ChatGPT 是变得更聪明了,还是更善于显得聪明?据苹果公司所言,答案是后者。
苹果公司的一个人工智能研究团队于本周末发表了一篇论文并声称,尽管大多数领先的大型语言人工智能模型看起来可能很智能,但实际上它们并不具备高级推理能力。
像 ChatGPT 这类的大型语言模型(LLM)似乎每年都变得更先进、更“智能”。然而,在幕后,它们的逻辑推理能力并没有太大的提高。根据苹果公司的研究,当前 LLM 的能力“可能更类似于复杂的模式匹配,而不是真正的逻辑推理。”
这项研究对当今顶级人工智能模型的现实意味着什么?也许是时候在尝试构建更智能的模型之前,先专注于创建更安全的人工智能模型了。
倘若苹果人工智能团队发表的研究准确无误,那么当今领先的大型语言模型在《你比五年级生聪明吗》这一节目中都会难以招架。
然而,这并不意味着人工智能就不能依旧是一个强大的工具,一个可能极为有用……或者有害的工具。
实际上,苹果的研究揭示了人工智能的一项核心优势和潜在危险:即它的模仿能力。
像 ChatGPT 这类大型语言模型看似能够像人类一样去推理,但正如这项研究指出的那样,这不过是人工智能在复制人类的语言和模式罢了。这或许不如实际的逻辑推理那么先进,但人工智能在模仿他人方面已经变得极其出色。不幸的是,不良行为者很快就利用了每一项进步。
例如,本周末,科技 YouTuber 马克斯·布朗利(Marques Brownlee)在 X 上宣布,一家公司在其产品的广告中使用人工智能复制了他的声音,而布朗利与该公司没有关联。不过,人工智能生成的诱饵与布朗利的真实声音惊人地相似。该广告显然是为了欺骗观众,让他们认为布朗利在为他们的产品背书。
不幸的是,像这样的事件变得越来越常见,从泰勒·斯威夫特(Taylor Swift)的假总统背书到斯嘉丽·约翰逊(Scarlett Johansson)声称OpenAI 未经她允许复制了她的声音。
普通用户或许觉得这些争议影响不到他们,但它们可以说是人工智能行业最为关键的方面。像 ChatGPT 或 Gemini 这类基础工具对很多人有用,这挺好的。
然而,人工智能被用于深度伪造、欺骗和诈骗这类方式,属于滥用,给这项技术的安全性以及不管是有意还是无意与之互动的每个人,都带来了严重风险。