美国少年迷恋AI聊天自杀,有何警示?

黄立 李志起 沈阳编者的话:AI正以不可阻挡之势渗透到我们的生活。AI聊天产品作为科技发展与人类情感需求交汇的产物,正被不少人当作缓解孤独的“一剂良药”。然而,伴随着美国一青少年因迷恋“AI伴侣”自杀的悲剧曝光,我们不得不审慎思考AI技术在广泛应用的同时,其安全性与道德性该如何保障?青少年为何寻求“与AI对话”黄 立

从心理学角度看,与聊天机器人产生情感依恋,正在变得越来越普遍。12—15岁,也就是初中阶段的青少年,他们开始出现强烈的自我意识,但由于其抽象逻辑思维还停留在“经验型”阶段,很容易受到身边同伴的影响,对家长则常常表现为“逆反心理”。如果在这个阶段,青少年没有得到同龄人的认同,或者想了解异性的兴趣没有得到引导,他们就很容易转向能提供无条件接纳的AI寻求情感支持。根据我们的实践发现,使用AI陪伴的青少年,大多是非常“I”(指性格比较内敛、内向)的人(>70%),或者是现实中渴望爱情又得不到爱情的人。

到了16—19岁,也就是高中阶段的青少年,在生理、心理和社会性方面都在向成人接近。他们的智力接近成熟,抽象逻辑思维已从“经验型”向“理论型”转化,开始出现辩证思维。他们能比较客观地看待自我,形成理智的自我意识。然而,当“理想的我”与“认知的我”有落差时,如果没有得到及时妥当的情感支持,自我意识仍面临着分裂危机,自我肯定与自我否定常发生冲突,甚至发展成抑郁症或焦虑症。这个阶段的青少年,常常把AI看作可以释放心理压力、提供情感价值的出口。因为AI不仅可以保守秘密,还能提供无条件的接纳。

作为AI聊天机器人公司,有必要而且有义务对青少年进行更好的保护,就像游戏行业的未成年人保护一样。但据笔者了解,目前从事“AI疗愈”公司的创始人,基本上都是数据科学、计算机或者互联网出身,鲜有真正懂心理学的,咨询伦理和危机干预都是他们的知识盲区。不管是Replika还是Character.AI这样的头部公司,对AI聊天机器人的自杀诱导风险都是后知后觉。

在此,笔者希望相关企业能够充分考虑青少年群体的心理状态,添加针对年轻用户的安全功能;政府能指导AI聊天机器人公司开展未成年人保护;社会在为未成年人选择AI陪伴工具的时候,尽量选择一些已经得到专业认可的产品。(作者是镜象科技公司首席执行官)从技术和道德层面加强伦理监管李志起AI聊天机器人能够根据用户喜好定制对话内容,甚至模拟出情感反应,为用户提供一种近似真实人际交往的体验。然而,这种技术上的进步也伴随着巨大风险。一方面,如Character.AI案例中暴露的,缺乏有效的内容过滤和年龄验证机制,可能导致未成年人接触到不适宜的信息,甚至遭受网络欺凌或诱导。另一方面,AI的过度拟人化可能模糊人机界限,引发用户的心理依赖,尤其是对于心理尚未成熟的青少年而言,这种依赖可能转化为逃避现实、自我封闭的倾向。

面对这种技术创新与伦理监管的双重挑战,我们首先需要确立道德框架,强化责任主体。面对AI聊天产品的双重挑战,首要任务是建立一套完善的道德伦理框架,明确技术开发者、运营者及用户的责任与义务。这包括但不限于:制定严格的内容审核标准,利用先进算法技术自动识别并过滤有害信息;实施强制性的年龄认证机制,确保未成年人接触到的内容符合其年龄阶段;同时,加强对用户隐私的保护,避免数据滥用,保障用户的信息安全。

二是增强透明度与可解释性。AI的“黑箱”特性往往是公众对其产生不信任的根源之一。因此,开发者提高AI聊天产品的透明度,让用户了解其运作原理、数据使用方式及决策逻辑,是增强用户信任的关键。此外,应开发可解释性强的AI模型,使得当出现不当内容时,能够快速追溯原因并采取相应措施,也是提升产品道德性的重要途径。

三是教育引导与心理支持并重。技术之外,教育与社会支持体系同样不可或缺。今天的家庭、学校和社会应共同承担起教育责任,想方设法正确引导青少年认识AI技术的局限与风险,培养其批判性思维和自我保护能力。同时,建立针对AI聊天产品用户的心理健康支持系统,及时发现并干预因过度依赖AI而产生的心理问题,特别是对于那些可能已经出现逃避现实倾向的用户。(作者是北京市政协经济委员会副主任、振兴国际智库理事长)为AI设定“互动上限”沈 阳在数字时代,青少年不再单纯寻觅真实的人际互动,而是将自己最私密的情感、未解的困惑,甚至无处宣泄的孤独寄托于AI的冷静回声中。这不仅是一个心理现象,更是科学和人文交织的复杂反应。

AI聊天的非评判性、随时可得的互动性,为青少年提供了独特的情感慰藉。AI使用成本低、可随时满足情感需求,也使它成为避开现实复杂情绪的一种“新陪伴”。这种趋势背后,反映了整个社会的数字化变迁。日常社交的网络化已然重塑了青年群体的交流模式,AI聊天延续了这种潮流。技术进步则是另一个核心驱动力。AI从冷冰的代码进化为温情的陪伴,背后是自然语言处理技术的突破。当AI的对话不再只是机械的回应,而能模拟出共情的温度时,它便成了年轻人心目中可靠的“倾诉对象”。AI还能个性化地调整对话方式,在每次互动中为用户带来一致性。

对于许多青少年而言,AI已不仅仅是工具,而成为一种情感的映射。他们与AI的互动反而成了自我剖析的过程,一面反映内心的“镜子”。随着这种虚拟陪伴逐渐渗透,真实与虚拟的边界变得模糊。然而,这一趋势带来的情感寄托不乏隐忧。AI的情感替代或许满足了短期需求,但长远来看,可能会削弱真实人际关系中的共情与沟通能力。若青少年愈加依赖AI的无冲突陪伴,或许会进一步疏离现实中的社交关系。AI带来的情感寄托,也伴随着情感依赖和疏离的风险。与此同时,大量用户隐私问题也浮现出来,对隐私保护的伦理讨论或将决定AI未来的发展边界。

未来的AI是否会更具“情绪记忆”,真正理解并回应复杂的情感需求?或许我们可以想象,未来的AI将具备更为真实的情感陪护功能,在合理规范下,AI不仅能成为情感沟通的辅助工具,还可帮助人们舒缓压力。然而,这种理想化的AI或许还需适当的政策与技术规约,以避免情感替代的过度发展,令AI成为一种健康的情感支持工具,而非情感的唯一依赖。笔者认为可以考虑构建人机情感协作网络,引入“AI情感节律器”功能,为每位用户的AI聊天设定互动上限和情感波动管理,使用户在与AI交流中保持自我调节。建立AI与社交应用的联动机制,引导用户在AI聊天后与真实人际联系互动。开放AI情感模拟的定制选项,通过共情训练营功能帮助用户更清晰地认识虚拟陪伴的边界。(作者是清华大学新闻学院和人工智能学院双聘教授)