与 60 岁的人工智能版自己交流,为何不安?
这是一个周三的下午,我刚刚花了过去的 15 分钟与 60 岁的、由人工智能生成的自己版本互发短信。我这个由人工智能生成的未来的自己,是基于我片刻之前填写的调查问卷进行训练的,刚刚给我发了一连串消息,建议我‘保持本真’,追随我的[……]
这是一个周三的下午,我刚刚花了过去的 15 分钟与 60 岁的、由人工智能生成的自己版本互发短信。我这个由人工智能生成的未来的自己,是基于我片刻之前填写的调查问卷进行训练的,刚刚给我发了一连串消息,建议我“保持本真”,追随我的激情。我这个 60 岁的人工智能分身所描述的生活满足却略显无聊。但当我向人工智能询问它最大的遗憾时,情况突然有了转变。短暂停顿后,人工智能又发来另一条消息,解释说我的职业抱负如何让我为了完成我的第一本书而忽视了我的母亲。
“她在我的书甚至还没出版时就意外去世了,这给我敲响了一记警钟,”我的人工智能自我写道。
如果你能和未来的自己进行对话,你会想听他们说什么吗?
上述互动是麻省理工学院媒体实验室的一组研究人员开发的一个新项目,叫做“未来的你”。该在线界面使用了OpenAI 的 GPT 3.5的修改版,构建出一个 60 岁的、由人工智能生成的模拟人物,人们能够与之来回交流。其结果既超现实,又平凡,有时甚至还略感不适。除了纯粹的新奇感之外,研究人员认为,与自己年长的自我进行接触可以帮助年轻人减少对衰老的焦虑。
“未来的你”聊天机器人是心理学中一项更大努力的下游产物,旨在提升一个人的所谓“未来自我连续性”。先前的研究表明,高水平的未来自我连续性——或者对自身未来存在的普遍舒适感和接受度——与更良好的财务储蓄行为、职业表现以及其他健康的长期决策实例相关。过去,心理学家会让患者给他们想象中的未来自我写信来测试这一点。最近,研究人员尝试让被定罪的罪犯在虚拟现实(VR)环境中与他们未来自我的版本进行互动,这导致了自我挫败行为的可衡量下降。
虽然据说写信和 VR 场景都给受试者带来了有益的结果,但是它们的适用范围有限。写信示例的有效性在很大程度上依赖于受试者的想象力,而 VR 案例只适用于能负担得起笨重耳机的人。这便是人工智能发挥作用的地方。通过使用越来越受欢迎的大型语言模型(LLM),麻省理工学院的研究人员认为,他们为人们创造了一个易于使用且有效的渠道,让人们反思自己对衰老的想法。研究人员对 344 人测试了聊天机器人的功能,发现大多数与人工智能生成的年长自我进行交流的参与者在结束会话时,焦虑感减轻了,并且与未来自我的概念联系得更紧密。研究结果在本周发表的一篇未经同行评审的论文里有所呈现。
“人工智能可以是一种虚拟时间机器,”论文的合著者帕特·帕塔拉努塔蓬在一份声明中表示。“我们可以利用这种模拟来帮助人们更多地思考他们今天所做选择的后果。”
该研究小组由年龄在 18 至 30 岁之间、数量大致相当的男性和女性组成。其中一部分人花了大约 10 至 30 分钟与自己的人工智能版本聊天,而另一组对照组则与通用的、非个性化的大型语言模型聊天。所有参与者都填写了一份问卷,描述了他们的个性,并提供了他们的生活、兴趣和目标的详细信息。他们还被问到是否能想象自己 60 岁时的样子,以及是否认为未来的自己会有相似的个性或价值观。在项目结束时,参与者被要求回答另一项调查,该调查衡量了他们对焦虑、未来自我连续性和其他心理概念及状态的反思能力。这些输入用于微调人工智能模拟。一旦模型经过训练,参与者被要求提交一张自己的面部照片,然后用软件对其进行编辑,使其看起来变老。那张“老”照片随后被用作人工智能模拟的头像。
人工智能模型利用用户提供的细节和生活事件迅速生成一系列“未来自我记忆”。这些本质上是简短的虚构故事,借助训练阶段所吸收的上下文信息,充实了旧人工智能的背景。研究人员承认,这种匆忙拼凑起来的生活事件组合并非在创造某种无所不知的神谕。人工智能模拟只是代表了个人一生中可能出现的众多潜在未来场景之一。
“这不是预言,而是一种可能性,”帕塔拉努塔蓬接着说道。
当一个人与他们更年长的人工智能自我互动时,有两种不同的心理现象在发挥作用。首先,在未必意识到的情况下,用户在反思并输入关于自己的问题以训练人工智能时正在进行自我反省。然后,当他们思考人工智能是否反映了他们认为自己会成为的人时,与他们模拟的未来自我的对话致使用户在一定程度上进行回顾。研究人员认为,这两种效应的结合在心理上可能是有益的。
“你有机会知晓,你当下可能仍饱含强烈情感的某些经历,会随着时间的流逝如何被消解。”
为了能更好地弄清楚这个系统的运作方式,我对‘未来的你’的一个版本进行了测试。该程序首先要求我完成一系列的多项选择题,大致来测试我的个性倾向。然后,它让我在一个滑动量表上设想,我是否觉得自己会像想象中的 60 岁的自己那般思考和行动。最后,该程序让我提出书面问题,来探讨我的人生目标、价值观和社区相关的内容。一旦回答完所有这些问题,系统就让我自拍一张,并用软件把它处理得更老。在这种情形下,老得多了。
我那个 60 岁的人工智能自我是个挺能说的人。在我还没开始打字的时候,人工智能就接连发送了 10 条不同段落长度的短信,每条都提供了一些有关从现在到我 60 岁生日之间虚构发生的重大事件的背景情况。这些回应构成了上述所提到的‘未来自我记忆’,大多比较普通,而且缺乏灵感。它似乎基本上把在训练阶段输入的谈话要点重新进行了包装,并将其塑造成了一个大致连贯且总体积极的叙述。
当我问到环境是否随着时间推移而变得更糟时,人工智能向我保证说地球仍在转动,甚至说我已经成了直言不讳的气候倡议者。人工智能拒绝回答我的大多数有关政治或时事的问题。虽然大部分回答明显感觉是由机器编写出来的,但在恰当的提示下,聊天机器人偶尔会转向一些不同寻常的领域。聊天机器人是否准备好在心理学中发挥更大的作用?
这并非生成式人工智能在亲密心理情境中使用的第一例。多年来,研究人员和一些公司宣称,他们能够使用依据失去亲人的数据训练的大型语言模型,“以聊天机器人的形式使他们起死回生”。其他初创公司正在尝试使用聊天机器人让用户参与谈话治疗,尽管一些临床医生对该用例的有效性提出了批评。
在没有专门对其使用加以限制的新规则的情况下,生成式人工智能似乎很有可能会继续逐步进入心理学以及更广泛的医疗保健领域。然而,这是否会带来持久的积极心理健康影响似乎仍不太清楚。在与“未来的你”进行短暂互动后,我不禁想到,接触这样一个系统所能带来的好处或许在很大程度上取决于一个人对于生成式人工智能应用的总体信心和信任。就我而言,知道人工智能的输出在很大程度上是对我刚刚输入的生活事件的重新编排组合,这削弱了任何认为编写故事的设备在任何有意义的方式上是“真实”的错觉。最后,与聊天机器人交谈,即使是一个拥有个人知识的聊天机器人,仍然感觉像是在与计算机交谈。