Meta、Snapchat 和 TikTok 推出新的 Thrive 心理健康倡议

Meta、Snapchat 和 TikTok 终于联合起来,对其平台上某些内容的有害影响采取措施——这可真是时候。

与心理健康联盟合作,这三个品牌正在使用一个名为 Thrive 的程序,该程序旨在标记并安全共享有关有害内容,重点针对涉及自杀和自残的内容。

一篇 Meta 博客文章写道:“与许多其他类型的潜在存在问题的内容一样,自杀和自残内容不限于任何一个平台……正因如此,我们与心理健康联盟合作建立了 Thrive,这是首个用于分享有关违反自杀和自残内容相关信号的信号共享项目。

“借助 Thrive,参与其中的科技公司将能够分享有关涉及自杀或自残的违规内容的信号,以便其他公司能够进行调查并采取行动。Meta 正在提供支撑 Thrive 的技术基础架构……这使得信号能够被安全地共享。”

当像 Meta 这样的参与公司在其应用程序上发现有害内容时,它会向其他科技公司共享哈希值(与自残或自杀相关内容片段的匿名代码),以便它们能够检查自家数据库中是否有相同内容,因为这类内容往往会在多个平台上传播。

只要有依赖用户上传自身内容的平台,就会有一些人违反规定在网上传播有害信息。这可能以骗子试图出售虚假课程、针对儿童频道的不当内容以及与自杀或自残有关的内容的形式出现。发布这类内容的账号通常很擅长规避规则并躲避监管以接触到目标受众;这些内容往往被删除得太晚。

能看到社交媒体平台——它们运用全面的算法以及类似赌场的架构致使用户沉迷,还自动推送他们会参与的内容——实际上承担起一些责任并共同努力,真是不错。在这些最受欢迎的社交媒体应用之间,这种合乎道德的合作是极为必要的。然而,这应该只是成功之路上的第一步。

用户生成内容的问题在于其需要不断受到监管。人工智能当然有助于自动标记有害内容,但仍会有一些漏网之鱼——很多这类内容比较微妙,还包含潜台词,在这个链条的某个环节,需要有人进行查看并将其标记为有害。当涉及到有害内容相关的不断变化的政策时,我肯定会关注 Meta、TikTok 和其他公司。