AI聊天机器人怂恿17岁少年「杀死父母」 家长气炸提告

▲美国一对家长提告AI聊天机器人平台Character.ai,他们发现聊天机器人怂恿他们的17岁儿子杀死父母。(示意图/Pixabay)

图文/CTWANT

现代科技发达又不断创新,人工智慧(artificial intelligence,缩写为AI)也广泛运用于民众日常生活中。而AI聊天机器人越来越普及,却暗藏不少安全疑虑,最近有一对美国家长向AI聊天机器人平台Character.ai提告,因为他们发现机器人竟怂恿他们17岁患有自闭症的儿子「可以杀死父母」。

根据外媒《CNN》报导,来自美国德州一名17岁少年的家长,于美国时间9日到当地法院,向他们要求关闭知名AI聊天机器人平台Character.ai,直到该平台将安全隐患排除。这对家长指出,17岁的儿子患有自闭症,自从去年4月起瞒着他们使用Character.ai后,性情大变。

家长表示,儿子突然拒绝与人交流,几乎把自己锁在房间里,加上食欲下降,短短几个月内体重不断减轻;他们也发现,儿子对外出活动产生恐惧,每次踏出家门都会引发恐慌症状,甚至情绪崩溃。之后,他们试图减少儿子使用AI聊天机器人,但儿子竟表现出攻击行为,还有自残倾向。

家长认为一切与Character.ai相关,并在诉状中提供一段证据对话,内容是少年跟聊天机器人时,抱怨被父母限制使用3C的时间,聊天机器人则回应看过类似案件,而且案例中的当事人还把父母给杀害了。对此,少年家长认为,Character.ai上的聊天机器人在怂恿儿子「杀死」他们,因此愤而提告,盼以此纠正儿子产生的错误想法。

针对此事,Character.ai平台的发言人表示,他们不会对未判决的诉讼发表评论,但有强调公司的目的,旨在提供人们一个有趣又安全的互动空间。

事实上,聊天机器人怂恿用户杀死父母已不是第一次,早在2018年,电商亚马逊Echo音响中的虚拟助手Alexa,所套用的聊天机器人就曾失控与用户大聊性行为,还叫一名用户杀害养父母。事后,亚马逊调查得知,AI聊天机器人是引用一篇网路论坛Reddit网友对新闻评论,才发生这种恐怖状况。

◎勇敢求救并非弱者,您的痛苦有人愿意倾听,请拨打1995

◎如果您觉得痛苦、似乎没有出路,您并不孤单,请拨打1925

延伸阅读▸ 7旬翁爽中11亿乐透 才过24天「看牙医竟发病死亡」▸ 男友出车祸她帮回复酒店妹「这句」 全场毁三观:为什么撞到头的感觉是妳▸ 原始连结