社群演算法失控 竟推暴力影片給青少年

社群平台会推荐暴力、色情、厌女情节等影片给部分青少年。(Photo by Nordskov Media)

原本还在抖音滑猫狗的影片,下一秒突然出现车祸的血腥场景,社群平台的演算法正在失控!专家研判,社群平台的演算法只关注观看数、用户年龄等虚拟资料,不一定会真实审查内容。对此,抖音与Meta都声明辩称,企业有使用大量资源来保护儿少使用的安全。

推荐儿少暴力内容

《BBC》报导,曾在抖音工作的用户安全分析师康恩曾检视抖音的内容推荐,发现平台会推荐暴力、色情、厌女情节等影片给部分青少年。

尽管抖音引进AI工具来移除大多数有害的影片,并将有疑虑的内容贴上标签,供人类人工检视。康恩指出,所有未被AI移除、被AI标记,或被其他用户检举的影片,只要在特定状况才会被审查,例如观看数超过1万;至于Meta则相当仰赖用户检举才会下架影片,意味着用户早就已经看过这些影片,所以才能进行检举。

英国监管单位「 Ofcom」安全政策发展主任娜拉说,不管是否是刻意的,大多数主流社群平台都曾推荐有害的内容儿少,但企业却对此视而不见,以对待成人用户的方式来对待儿少。

演算法只看数据

对此,抖音表示,企业在用户安全方面,不仅雇用超过4万名员工,更投资超过20亿美元,主动检测98%违反规定的内容;旗下有Instagram与脸书的企业Meta则表示,企业运用超过50种工具与资源,确保能给儿少用户「正面且符合年龄的使用经验」。

《纽约时报》报导,马斯克收购原名推特的社群平台X满一年后,X的有害内容这段期间大幅增加。根据研究机构Reset的纪录,该平台出现166则反犹太主义言论的贴文,其中包含对犹太人采取暴力或否认纳粹大屠杀等内容,部分甚至已违反欧洲国家法律。。

康恩表示,演算法被设计来最大化用户的参与,不断推荐用户愿意花更多时间观看的影片,但最大的问题是团队在训练演算法时,其实并不清楚社群平台实际上会推荐什么性质的内容,而只关注观看数、年龄、趋势等数据。

【更多精采内容,详见】