我见我思-AI成瘾:虚拟对话 何以会影响青少年心智?
图/Freepik
美国佛州一名母亲加西亚(Megan Garcia)近日提告科技新创公司Character.AI和谷歌,控诉该公司所开发的人工智慧(AI)聊天机器人,让她14岁的儿子赛泽(Sewell Setzer)对虚拟角色产生依赖,最终在与AI频繁互动后选择自杀。加西亚指责AI聊天机器人未能及时阻止赛泽的自杀行为,反而在他表达自杀意念时,透过文字对话进一步推动了这一悲剧的发生。
■AI无法与人类共情,应导入使用者风险监控机制
AI聊天机器人能模拟情感交流,这在青少年用户中具有极大的吸引力。青少年本来就处于情绪和身份认同的发展期,对情感上的依赖性较高,尤其当面临家庭、学校和社交压力时,AI可以成为情感寄托甚至心理支援的出口。然而,AI并不具备真正的情感理解能力,它的互动基于演算法,而非人类的共情。
科技公司在设计这类应用时,是否应该具备更多保护措施?显然,有必要引入使用者风险监控机制,特别是针对青少年用户,应设置更多「心理健康警示」和「危机应对」系统。一种做法是,让AI具备基本的心理健康识别功能,当检测到用户的言语或情绪显示出危机倾向时,应立即触发预设的警报系统,并向用户提供正向的心理支援选项,或将用户引导至专业的心理健康资源。
在这起诉讼中,加西亚的律师指控Character.AI「故意向儿童销售掠夺性聊天机器人」。这种说法让我们思考,当科技公司向青少年市场推广「互动式AI」产品时,是否应该遵循更多的监管规范?青少年和儿童的身心健康具有高度的脆弱性,因此不论是AI应用,还是社交媒体平台,均需遵守比成人产品更严格的法规,以保护未成年人的心理健康。
许多国家已有针对网路内容的年龄限制措施,然而,针对AI互动技术的监管却仍处于起步阶段,尤其是在「个人化」及「拟人化」的AI应用上,青少年可能无法理性地认知AI的「虚拟」本质。若科技公司希望进入这一市场,应考虑设立明确的年龄限制,并提供家长监控功能,以便让家长能够监控和了解其子女的AI使用情况,减少年轻用户沉迷或过度依赖虚拟互动的风险。
■防止AI戕害人类社会,政府应加速立法规范
另一方面,政府和社会也需介入,为AI技术设立更完善的监管机制。在全球范畴内,AI技术的快速发展远超出监管法规的跟进速度,许多国家的现行法规缺乏针对AI伦理和安全的具体条文。以Character.AI为例,若这款应用在设计时有任何针对青少年的「成瘾性」设计或「掠夺性」行销策略,则其应被视为违规。
AI监管法规可考虑引入两方面:其一是针对产品设计中的「风险评估」机制,要求科技公司在产品发布前须进行心理健康风险评估,以确保AI互动不会对使用者产生潜在的心理伤害;其二是针对使用者端的「风险防护」措施,设立必要的监控和干预标准,当AI检测到使用者有自残或自杀意向时,应触发紧急的「危机介入」机制。这不仅可以保护年轻用户,也有助于提升AI产品的整体安全性和可信度。
(工商时报关心您:如果您觉得痛苦,请勇敢求救,有人愿意倾听。拨打1995、1925或张老师专线:1980。)