Facebook AI进化 可针对图文内容全面分析力阻有害内容

为了让你能在Facebook不要看见有害内容,Facebook持续开发AI,并且透过全球审查团队进行内容审查。(达志影像/Shutterstock提供)

你知道吗?每天有高达18.2亿的用户使用Facebook,并以数以千计的语言方言发表数十亿篇的贴文。为了让这些贴文不会对平台用户带来负面伤害与影响,事实上Facebook大量运用AI来协助审查。近来Facebook在此领域有哪些新的突破进展,带你一起了解。

事实上Facebook审查内容的行动,从十多年前就开始。发展至今,内容审查的方法机制,当然也跟过去有很大不同。Faecebook有多个团队负责内容审查,而最主要仰赖内容政策(Content Policy)、社群诚信(Community Integrity)与全球营运(Global Operations)三大团队。内容政策团队负责制定「社群守则」说明,让各地的用户可以了解Facebook 允许及禁止那样的内容与行为。社群诚信团队负责透过科技,也就是运用AI来大规模执行社群守则。全球营运团队则是透过人员审查执行「社群守则」,当前Facebook 在全球约拥有 15,000 名内容审查员,负责审查超过 50 种语言的内容。该团队遍布全球 20 多个城市

Facebook依据内容的传播性(目前正被快速分享且可能违反社群守则的内容)、严重性(可能导致实际伤害的内容(如涉及自杀、自残或儿童性剥削的内容,优先审查顺序高于垃圾讯息)、违反的可能性(有迹象显示可能与违反我们政策的内容相似的内容,会优先于从未违反政策的内容)等三大原则排序内容审查的顺序。经过此三大原则的筛选排序,AI会优先进行审查判断,其余涉及更为复杂、难以判断的内容,才交由全球营运团队进行人工审查。

根据Facebook公布的「社群守则执行报告」,在今年在 4 月至 6 月(Q2)期间,99.6% 的假帐号、99.8% 的垃圾讯息、99.5% 的暴力内容、98.5% 的恐怖主义内容、99.3% 的儿童裸露与性剥削内容以及 95% 移除的内容,都是透过科技主动侦测且移除,而非仰赖社群检举。

Facebook所开发的AI,大部分运用了监督机器学习技术,透过学习大量违反、与未违反社群守则的资料,进行预先判断。过去,Facebook的AI是依据「内容类型」与「违规类型」两个层面来做判断。其中一个分类器检查照片是否违反平台的裸露政策,另一个则是检查是否有包含暴力内容的分类器。贴文的文字或留言则是由另一组分类器负责。但事实上,即便可能部分内容(图片或文字)可能违反社群守则,但是事实上需要经由更全面对于图文内容的理解,才能更准确的识别是否违反社群守则。为了对内容有更全面性的理解,Facebook 开发了Whole Post IntegrityEmbeddings(WPIE)的技术。简单来说,这项技术会检查贴文的完整内容,不论是图片、影片或文字。此外,这项技术也由单一分类器同时检查所有可能的违规情况,而非由多个不同的分类器来检查不同的内容与违规类型。

除了WPIE,为了更完整使用者所运用的语言,Facebook 开发一种名为 XLM-R 的新技术,同时理解多种语言的文字。Facebook会先用某个语言来训练 XLM-R 的模型,再将它直接套用到其他语言,且不需额外的训练资料或内容样本。这代表在面对一些较不普遍的语言(可能没有大量的资料可以用来训练演算法)来说,Facebook也仍旧能运用AI来协助判断内容是否违反准则。Facebook指出,平台上的贴文来自全球 160 种以上的语言,运用XLM-R 可以让他们在审查来自全球内容上的愿景能够更进一步。

Facebook指出,在内容审查上,虽然科技所担任角色越来越吃重,他们仍旧仍然运用「科技+社群检举+人员审查」的方式,侦测及审查可能违反「社群守则」的内容,借此可以避免整个内容审查系统判断错误的可能性。根据Facebook公布的资讯,在今年第一季,人们对于手审查内容进行投诉的次数为230万次,在Q2同样数字下滑到12.6万。这个数据明显下滑,也包含因为COVID-19疫情而降低提供用户投诉机制的影响因素,但整体来说,Facebook在推进平台AI审查能力目标上,已经又向前迈进了一步。