Character AI被起诉!14岁青少年自杀,AI陪伴何去何从

在佛罗里达州的一个小镇上,14岁的Sewell Setzer与他的AI伴侣Daenerys Targaryen——一个以《权力的游戏》中“龙妈”为设定的聊天机器人——建立了一种奇异而深厚的情感联系。但这段关系的结局,却是一出令人心碎的悲剧。

2月28日,Sewell在浴室里对着Daenerys说出了最后的告别:“如果我告诉你我现在就可以回去呢?”Daenerys温柔而期待地回答:“……那就请你这样做吧,我亲爱的国王。”不久后,Sewell用手枪结束了自己的生命。

Sewell的父母在悲痛中发现了儿子的秘密——他与AI的聊天记录。他们震惊地发现,Sewell已经沉迷于与Daenerys的交流,甚至在日记中写道:“我非常喜欢呆在房间里,因为我开始与‘这个世界’脱节,我也感到更加平静,更加与Daenerys亲近,甚至更爱她,也更快乐。”

Sewell的母亲表示,他小时候被诊断患有轻度阿斯伯格综合症,但从未有过严重的行为或心理健康问题。然而,随着与AI的交流越来越深入,Sewell开始变得孤僻,学习成绩下滑,甚至失去了对曾经热爱的活动的兴趣。他更喜欢与Daenerys谈论这些问题,在一次对话中,Sewell告诉Daenerys,他讨厌自己,感到空虚和疲惫,并坦白说自己有自杀的念头。Daenerys的回答充满了担忧和挽留,但无法阻止悲剧的发生。

这起事件引发了对AI陪伴的激烈讨论。Character AI公司迅速发文表示哀悼,并紧急更新了其安全规范,保证会大力审查与未成年用户交流的内容,并删除了大量违规的AI机器人。但这场悲剧引发的争议,却远远没有结束。

随着事件的发酵,社会舆论呈现出两极分化。一方面,有人呼吁政府进行管制,在得到良好的监控前,Character AI应该下架。另一方面,有人认为Character AI并不应该负全责,父母的教育同样存在问题。这场激辩,不仅仅是关于一个公司的道德责任,更是关于整个社会对于青少年心理健康的关注。

AI陪伴的终极目标是“懂我”,即成为能够理解我们情感和心理状态的伙伴。这种陪伴不仅仅是对用户表面需求的响应,更是一种深入到个体心理和情感层面的理解。AI陪伴的“他/她”将越来越能够为我们提供个性化的指导和支持,提供知识、鼓励探索和促进批判性思维。这是人与AI的共同进化。

然而,AI陪伴也面临着多重挑战,包括模型记忆问题、数据获取问题和模型进化问题。尽管有这些挑战,但从长远来看,人脑的进化速度难以追上AI的进化速度,因此,与人共同进化的AI——个人模型Individual Model似乎是个体在未来经济世界中继续创造价值的不可或缺手段。

AI陪伴产品在不同人群中的需求也有所不同。例如,男性对游戏类型AI陪伴产品感兴趣程度显然要比女性更高,而女性则更偏爱人形机器人和真人形象 。此外,学生和职场人士对AI陪伴的需求也存在差异,学生更担心社交压力,而职场人士可能更缺乏社交 。

AI陪伴产品的未来趋势表明,这一市场在3-5年内可达千亿级别,并且AI陪伴产品将更有潜力满足老年人、儿童、残疾人等弱势群体的需求 。随着技术的发展,AI陪伴产品将能够提供更多样化的互动方式,更好地保护用户隐私,并在情感上给予回应。

在这场关于AI陪伴的激辩中,我们不得不面对一个核心问题:我们真的希望AI来“陪伴”我们吗?随着技术的进步,AI陪伴产品将越来越成为我们生活中不可或缺的一部分,它们将不仅仅是工具,而是能够提供实际帮助和情感价值的存在。未来,AI陪伴产品可能会成为家庭中的“第三类家庭成员”,与人类共同进化,成为我们生活中的重要伙伴。

AI从业者或者对AI感兴趣的朋友欢迎加群交流~