智能社會的進退兩難:FB美國大選防禦網...社群媒體該如何應變打假?

图/美联社

▌智能社会的进退两难:FB美国大选防御网...社群媒体该如何应变打假?

「选举前后的72小时假若『出事』...社群媒体平台该怎么应变?」美国总统大选倒数最后7天,随着投票日的逼近,双方阵营的网路空战也越发密集紧张;全球社群龙头 Facebook 近期则对外透露了对2020大选的担忧,为了防止「假新闻、仇恨言论」在大选前后的猛爆性传播,FB官方已准备好了对应的防御手段,透过演算法压制这些被判定为危险的内容,或是直接删除封锁。而这套系统,也正是FB先前针对缅甸的种族仇恨内容压制的同一套机制,尽管FB官方强调只在情况恶劣、广泛出现暴力事件时才会启动防御网,但FB的筛选标准为何?如何拿捏尺度?加强控管会引发审查言论的争议,但无所作为却也回避了社群乱象延烧的责任;在外界对于机制不透明的困惑质疑下,再遇进退两难。

FB内部人士向《华尔街日报》透露,为因应即将到来的美国大选,已经准备好一系列的演算法防御机制,预防在大选前后出现假新闻、仇恨与暴力等煽动性的内容,造成社会冲突与裂痕的加剧。特别是在大选过后,有可能会出现一波波社群言论的高峰期,FB官方担心会因此扩大激情,导致暴力事件发生。

而FB向外界透露的演算法,其实并没有任何详细内容的说明;诸如实际运作的机制为何?权重如何分配?筛选判别的标准与方法又是什么?各种疑问并没有更进一步的详述,唯独表示这套预备好的防御机制,将会扩大危险内容的判别门槛,经由内部筛选后直接降低文章的触及率、或直接将该文章或发文帐号予以封锁删除。

「只有在『最恶劣』的情况,以及开始出现『暴力事件』时,FB才会启动这个机制。目前我们以正在高度警戒状态。」FB的副总裁克莱格(Nick Clegg)表示。

图/美联社

这里提及的演算法,根据FB所说是先前曾运用在缅甸国内的种族仇恨言论时,实际操作过的演算法工具。过去几年当中,缅甸的FB使用者社群极为活跃,但伴随而来的却是越来越多针对罗兴亚人的仇恨言论,此间造成的伤害,也让FB直接被联合国点名,FB对于这类内容的纵容放任,才深化了缅甸的族群对立。

意识到缅甸情况的FB官方,也相应地祭出各种演算法来作压制,之中像是知名的缅甸激进派佛教僧侣威拉杜(Ashin Wirathu)——曾多次公开主张屠杀罗兴亚人、鼓吹反伊斯兰行动的极端主义——在2018年就由FB删除了威拉度的帐号与相关煽动性贴文。

然而缅甸的经验却也反映出FB在遏止「危险内容」上的困境,其一是人工审查的人力严重不足,此外大量的关键字词、或是带有贬意的双关语等,却也很难全部都用关键字封锁的方式禁止。「如果等到恶意内容已经散播出去,才有办法动作的话,恐怕都为时已晚了。」《路透社》转述观察者的评论。

历经过缅甸、2016总统大选的经验,这一次FB官方却是信誓旦旦地向众人表示:「Facebook已从过去的选举中学到经验,聘请了各领域专家组成团队,为接下来的各种复杂情况做好准备——我们投注相当多的时间和精力,来让选举能够更安全。」

但外界也有困惑的是,在FB不透明的演算法下,界定危险内容的标准为何?如果没有具公信力的第三方协作,是不是就成了FB自己说了算的内容控管?先前才因为将《纽约邮报》报导杭特拜登丑闻,列为「争议或不实的无证据政治内容」而发动一系列帐户停权、文章封锁等争议,FB却难以在这一点上提出令所有人能够信服的答案,因而招致不少言论审查的质疑。

图/路透社

不过FB担心的「网路大乱」并非空穴来风,今年9月微软公司(Microsoft)也才发表了调查报告,警告2020总统大选已受到来自中国、俄罗斯以及伊朗三国的骇客攻击威胁,也极有可能发生网军煽动、资讯战的风险。如果选举前后的72小时,真的不幸发生了社群媒体担忧的乱象,届时各加平台又该如何应对?

「在社群平台上网路成瘾、彼此撕裂、假新闻乱窜....难道FB自己不就是作恶的来源之一?」近期Netflix纪录片《智能社会:进退两难》 (Social Dilemma)中即大力抨击FB,作为全球社群媒体龙头,其经营运作的本质就会让人们会上瘾,对于造成的负面影响束手无策。

不过针对纪录片的指控,FB也公开发表声明:「这部片扭曲了社交媒体平台的意义,只是替困难且复杂的社会问题,凭空找一个代罪羔羊而已。」

图/美联社