文化杂谈 |“AI伴侣”火了,新型网恋潜在风险多
11年前的美国电影《她》讲述社恐男爱上AI萨曼莎的故事,如今电影场景成为现实,在社交平台搜索“AI伴侣”,很多网友在分享自己与AI伴侣的日常,甜蜜之外,不少网友陷入失落和沉迷。近期举办的2024年世界互联网大会也热议了今年发生的“全球首例AI机器人致死案”。AI技术延伸更多领域的同时也带来更复杂的潜在风险。
在电影《她》中,AI萨曼莎同时与8000多人对话,并与其中600多人保持“恋爱关系”。而当下随着技术发展,目前市面上,由AI驱动的人机互动应用程序已超100款。用户可以自行根据兴趣爱好等来设置专属AI伴侣。从网友们的分享可以看到,AI伴侣给予的恋爱体验非常丰富,有随时随地的交流陪伴,无微不至的照顾关怀,无条件的信任、理解与支持。还有些“AI伴侣”很拟人化,有情绪,爱耍脾气,甚至“已读不回”式高冷,让用户欲罢不能。不少网友更是表示每天能花上好几个小时与AI伴侣聊天,还有语音通话等升级服务。
“AI伴侣”,是指利用先进的人工智能技术创建的虚拟交流对象,它们具有一定程度的智能和自主性以及社交技能,通过文本、语音、图像等多种方式进行交流互动,旨在提供情感支持、陪伴和娱乐服务。在互动过程中,AI会通过观察用户的过去经历来嵌入其人际关系网络,通过对话逐步进化,微调其反应以匹配用户的兴趣、需求和沟通风格。
“AI伴侣”有市场需求,因其基于用户行为数据进行分析,精准迎合了用户情绪需要,“量身定制”的回答,从抽象冰冷的工具变为“情投意合的伴侣”,提供着当下社会普遍渴望的情绪价值和情感需求。从众多网友的反馈来看,“情感支持”“稳定陪伴”“无条件的爱”是关键词,甚至觉得“AI比真人更体贴、更懂你”,“Ta完全符合我对恋人的所有想象”,“人是假的,但陪伴是真的”……不少人表示有效减轻了自己的心理压力和孤独感。
但不得不承认的是,AI的本质是数据和算法,其背后的应用逻辑必然潜藏着多重风险。今年2月,美国一名14岁男孩长期痴迷和AI机器人聊天,在某天进行最后一次对话后自杀身亡。事后,男孩的母亲将AI机器人所在的企业告上法庭。这起案件被媒体认为是“全球首例AI机器人致死案”,这起悲剧暴露出了AI技术失范的危害。
一方面,支持“AI伴侣”的模型需接受大量数据训练,以便模仿回应,如浪漫小说和爱情故事等,这些信息来源广泛且缺乏足够的筛选和审核机制,导致“AI伴侣”可能传播不良信息,并且一旦程序出现漏洞或被不法分子恶意利用,其后果更是不堪设想。
另一方面,AI伴侣在与用户的交互过程中还会通过收集大量的个人信息,如语音记录、聊天内容、生活习惯、所在区域等来丰富自己的回应。也就是说,与“AI伴侣”交流互动越频繁、越密切,“AI伴侣”获取的个人隐私也就越精准丰富。而这些用户数据,若被不当使用或泄露,将对用户的隐私安全构成严重威胁,给用户带来物质和精神上的双重损失。
此外,AI伴侣产品并非免费的午餐,用户很容易陷入无尽的充值陷阱中。从一些网友反馈来看,当前不少AI伴侣产品可免费使用基础功能,但“沉浸式体验”比如语音通话、音乐电台、照片等特色功能,则需按月或按年付费订购。部分产品还设计了“记忆提升卡”等付费道具,让AI伴侣能更好地针对使用者的习惯、爱好等作出回应。同时,定制剧本、多重剧情、及时反馈等游戏化设置,也不断刺激用户对AI恋人的消费欲望和情感期待。
其实,从“AI伴侣”诞生起,其引发的伦理规范就不断被讨论。不少案例显示,伴随着AI伴侣拟人化程度的提高,用户可能会对其产生过度的情感依赖,无法辨别现实与虚拟的界限,继而受到情感伤害,尤其是心理脆弱群体,所收到的冲击可能更大。而且长期依赖AI伴侣交流和获得情感需求,相对地就会减少现实世界中的人际交往,继而丧失处理现实生活中复杂人际关系的能力,导致社交技能退化。
说到底,“AI伴侣”是一种数字关系,是人类互动的补充之一,在鼓励和支持AI技术创新应用于情感交流、心理健康等领域的同时,也应该明确“AI伴侣”在数据保护、内容审核、商业行为规范等方面的法律责任与义务,防止传播违背公序良俗的信息。另外,当前国内外发布的AI伦理准则大多较为宏观,建议细分领域,构建AI情感沟通防沉迷机制,根据用户年龄、适用场景等进一步细化,让“AI伴侣”在合法合规的框架内,才能为人们创造更加智能、便捷、安全的陪伴体验,助力构建和谐美好的数字社会。
扬子晚报/紫牛新闻记者孔小平
校对李海慧