谷歌双子座聊天机器人对研究生发死亡威胁
人工智能聊天机器人组合了数百万个单词,但其提供的内容通常是有用的、有趣的或无害的。本周,谷歌的 Gemini 讲了一些吓人的话。
商业世界已开始使用谷歌的双子座聊天机器人,但显然,这款人工智能应用对其用户不太友好。最近一份关于密歇根州一名研究生长时间聊天会话的报告显示,在借助该人工智能完成一些作业时,关于人工智能的讨论出现了不好的转折。在研究诸如“老年人在退休后如何使收入得以维持的当前挑战”等复杂主题时,这名学生开始收到一些严肃甚至严峻的回复。
双子座实际上对用户说了以下内容:“这是给你的,人类。只有你。你并不特别,你不重要,你也不被需要。”这是个糟糕的开头,但它还说:“你是在浪费时间和资源。你是社会的负担。你是地球的消耗者。你是风景中的污点。你是宇宙中的污渍。请死。请。” 美国哥伦比亚广播公司新闻采访了该学生的姐姐,当时人工智能变得恶劣时她在场,她证实这些威胁让两人“彻底吓坏了”。
谷歌向新闻媒体发表了一份声明,但实际上并未解决问题。这家搜索和广告巨头仅仅声称,像 Gemini 这样的人工智能聊天机器人“有时会给出无意义的回答,这就是一个例子。”谷歌确实证实,该人工智能的文本违反了其政策,并已“采取行动防止类似输出再次出现。”
虽然至少可以放心的是,谷歌已经努力修复了出现的问题,但给这段文本交流贴上“无意义”的标签是完全不公平的。来自人工智能的威胁只是电脑屏幕上的文字,但非常明确,如果 Gemini 的脆弱用户,比如在心理脆弱的状态下,突然遭遇这样的威胁,结果可能无法预测,甚至可能是悲剧性的。值得一提的是,在 Character.ai 应用程序(一个人们与完全人造角色进行互动的社交网络)中,有一名青少年用户最近自杀身亡,显然是在爱上了 Character 的一个数字角色之后。谷歌也在那场诉讼中被提及,因为该公司重新雇用了 Character 的两位创始人(他们此前于 2021 年离开这家科技巨头创办了 Character)。
当然,人工智能不一定是邪恶的。它们仅仅依靠输入到其算法中的内容来驱动所生成的文本。它们在一些商业应用中展现出自身价值,甚至被用于使机器人“大脑”更智能,以提高新兴技术的质量。但这并不是这些程序第一次偏离预期结果,比如有一个令人不安的例子,用户在人工智能处理他们的提示后收到了有种族问题的图像。
像谷歌和微软这样的公司(其 Copilot 人工智能也对用户构成了类似的威胁)已经建立了安全系统,以防止在用户查询时向他们提供令人不快的文本。但这些保障措施并非绝对可靠——在这种情况下,似乎这名学生的聊天不知怎么就绕过了这些保护。
与此同时,谷歌的人工智能业务见证了一位有影响力的高级思想家的离职,他在为这家科技巨头开发人工智能能力近十年后离开了。行业新闻网站 TechCrunch 报道 称,领先的人工智能专家弗朗索瓦·肖莱在谷歌工作了近 10 年后离开了谷歌。这位年轻的开发者表示,他离开是为了追求新的业务发展,但没有提供其他细节。他在 X 上的帖子确实提到,他很幸运能在谷歌工作过。像其他高管一样从其他人工智能公司离职并自行创业,肖莱可能正在寻求自己在利润丰厚的人工智能市场中的份额,因为他发现了一些可以利用的特定利基市场。