研究人员惊忧:人工智能或让人类沦为混蛋

人们开始把计算机当作人类,向来都不需要太多条件。自从 21 世纪初基于文本的聊天机器人首次开始受到主流关注以来,一小部分技术用户会花费数小时跟机器对话。在某些情况下,用户觉得自己和无生命的代码串建立了真正的友谊,甚至是浪漫关系。至少有一位 Replica(一种更现代的对话式人工智能工具)的用户甚至 与他们的人工智能伴侣虚拟结婚。

OpenAI 的安全研究人员,他们对于公司自家的聊天机器人似乎向一些用户寻求关系的情况并不陌生,现在警示与这些模型过于亲近存在的潜在陷阱。在最近对其新的 对话式 GPT4o 聊天机器人的 安全分析 中,研究人员表示,该模型逼真且听起来像人类的对话节奏,可能致使一些用户将人工智能拟人化,并且像信任人类那样信任它。

[ 相关:美国 13%的人工智能聊天机器人用户只是想聊天 ]

研究人员补充道,这种额外增加的舒适感或信任感,可能会导致用户更易于将虚构的人工智能“幻觉”当作真实的事实陈述来相信。

与这些日益逼真的聊天机器人互动如果花费过多时间,最终可能会对“社会规范”产生影响,而且这种影响往往并非是积极的。报告指出,其他特别孤立的个人可能会对人工智能产生“情感依赖”。

GPT4o 于上月下旬开始推出,其专门设计成以更具人性化的方式进行交流。与之前的ChatGPT不同,GPT4o 使用语音音频进行交流,并且能够几乎像另一个人一样快速(约 232 毫秒)响应查询。其中一个可选的人工智能声音,据说听起来类似于斯嘉丽·约翰逊在电影《她》中所扮演的人工智能角色,已被指责过于性感和轻佻。具有讽刺意味的是,这部 2013 年的电影聚焦于一个孤独的男人,他与一个通过耳塞与他交谈的人工智能助手产生了浪漫的依恋。(剧透,对人类来说结局并不好)。约翰逊已经指责 OpenAI 在未经她同意的情况下复制了她的声音,但该公司予以否认。与此同时,奥特曼此前称《她》“极具预见性”。

但 OpenAI 的安全研究人员表示,这种对人类的模仿可能不仅是偶尔出现令人尴尬的交流,还可能会进入潜在的危险领域。在报告题为“拟人化和情感依赖”的部分中,安全研究人员表示,他们观察到人类测试人员所使用的语言表明其正在与模型形成强烈且亲密的约定。据报道,其中一名测试人员在与机器告别之前说了“这是我们在一起的最后一天”这句话。研究人员表示,尽管看似“无害”,但这些类型的关系应该进行调查,以了解它们“在更长时间内如何表现”。

该研究指出,与听起来有点像人类的人工智能模型展开的这些长时间对话,可能会产生影响人与人之间互动的“外部性”。换句话说,与人工智能交谈时学到的对话模式可能会在同一个人与人类进行对话时突然出现。但与机器和人类交谈是不一样的,即使表面上听起来相似。OpenAI 指出,其模型被编程为顺从用户,这意味着它会放弃权威,让用户打断它们,并以其他方式主导对话。从理论上来说,习惯与机器交流的用户可能会发现自己插话、打断别人,并且不遵循一般的社交暗示。将与聊天机器人对话的逻辑应用于人类可能会使一个人变得尴尬、不耐烦或只是纯粹的粗鲁。

人类对待机器的方式向来没有良好的记录。

据报道,Replica 的一些用户利用该模型对用户的顺从,使用了辱骂、斥责和残忍的语言。

今年早些时候,接受《未来主义》采访的一位用户声称,他威胁要卸载自己的 Replica AI 模型,只是为了听到它求他不要这样做。

更具人类情感的聊天机器人不一定全是坏事。

在报告中,研究人员认为,这些模型可能对那些渴望某种类似人类交流的孤独人群特别有益。

在其他地方,一些人工智能用户声称,人工智能的比较能够帮助焦虑或紧张的个人树立信心,最终在现实世界中开始约会。

聊天机器人还为有学习差异的人提供了一个自由表达自身的渠道,并且能让他们在相对隐私的环境下练习交谈。

另一方面,人工智能安全研究人员担心这些模型的高级版本可能会产生相反的效果,降低人们与他人交流以及和他人建立健康关系的需求感。目前还不清楚依赖这些模型获取陪伴的个人,将如何应对模型通过更新改变个性甚至与之“分道扬镳”的情况,正如过去有报道的那样。报告指出,所有这些观察结果均需进一步测试和调查。研究人员表示,他们希望招募更多有着“对人工智能模型不同需求和期望”的测试人员,以了解他们的体验在更长时间内如何变化。

这份安全报告的基调着重于谨慎以及对进一步研究的需求,似乎与 OpenAI 迅速不断推出新产品这一更大的商业战略相违背。这种在安全和速度之间的明显紧张关系并不新鲜。首席执行官山姆·奥特曼(Sam Altman)去年在公司赫赫有名地处于一场企业权力斗争的中心,此前董事会的一些成员声称他“在沟通中不始终坦诚”。

奥尔特曼最终在那场小冲突中胜出,并最终组建了一个新的安全团队,由他亲自领导。据报道,该公司还解散了一个安全团队,该团队完全专注于分析长期的人工智能风险。这一变动致使知名的 OpenAI 研究员扬·莱克辞职,他发表声明称,该公司的安全文化在公司“已退居次要地位,让位于光鲜的产品”。

考虑到所有这些总体背景,很难预测在 OpenAI 中,在聊天机器人安全方面,哪些想法会占上风。该公司是否会听从安全团队的建议,研究与其实用型人工智能的长期关系的影响,还是会仅仅以旨在私有化参与度和留存率的功能,把服务推广给尽可能多的用户。至少到目前为止,其做法看起来是后者。