认识美国宪政的韧性系列之五:陈思奕》反制造谣与散播假消息的社会共识

2016年大选中剑桥分析公司(Cambridge Analytica)利用脸书获取的几千万用户数据,利用人工智能方法分析用户的政治倾向和其他偏好,通过社群媒体针对性地向选民投放信息影响他们在大选中的行为。(图/达志影像/shutterstock)

在2020年大选即将全面展开的6月下旬,加州伯克莱大学的法里德教授(Prof. Hany Farid)在国会听证会警告,2020年美国大选会面对严重的制造假消息和散布阴谋论的威胁。他说,「互联网,特别是社群媒体,已经被个人、组织和其他国家作为武器,以在美国挑起民间动乱,干扰民主选举」。他向国会建议,「我们应该对我们国家所面临的问题进行激烈的辩论,但我们不应该允许社群媒体以压制选民、传播和放大谎言、阴谋、仇恨和恐惧的形式,成为反对我们社会和民主的武器」。

其中最著名且证据确凿的,是2016年大选中剑桥分析公司(Cambridge Analytica)利用从脸书获取的几千万用户的数据,利用人工智能方法分析用户的政治倾向和其他偏好,通过社群媒体有针对性地向选民投放信息,影响他们在大选中的行为。相关丑闻曝光最终导致剑桥分析公司破产,脸书被多个政府机构罚款联邦交易委员会的罚款是最大的一笔50亿美元。

2020年的情况比四年前有了很大的变化。如今人工智能的造谣技术和造谣机器已经成熟。伴随社群媒体的超高速传播,对宪政提出前所未有的挑战。称为深度造假(deep fake)的人工智能技术,不仅可以写作造假文字,更可以从实际音频照片视频获取信息,制造假音频、假图片,甚至假视频等。2019年秋美国国会曾举办听证会,两党议员共同目睹人工智能家播放的、用深度造假技术伪造的众议院议长佩洛西 的演说视频。纳粹宣传部长戈培尔(Joseph Goebbels)曾经说,谎言如果重复一千遍又不许戳穿,就会变成真理。如何在保护言论自由的基础上,戳穿谎言,保护美国的民主制度,是两党议员共同的利益所在。

普通人无法从视频本身判断深度造假视频的真伪,言论自由又意味着不能简单禁止发布伪造的消息。但是,人工智能专家有很多技术手段证明真假。因此,在多次听证之后,两党议员共同决定,要求运营社群媒体的公司尽其能力自我监管,帮助戳穿谎言,阻止谎言的传播。

这才有了脸书(Facebook)、推特(Tweeter)及油管(YouTube)等主要社群媒体平台推出的自我监管制度。其中包括标注其平台出现的不实信息,关闭数十万的假账户(即专门用来传播假新闻机器人账户,或者人工智能操纵的无人账户),删除某些违法内容。

但是,所有社群媒体平台都是商业性的。其商业模式点击率盈利。大规模自我监管会降低点击率。而且他们也惧怕自我监管引发政治上的攻击。其结果是,一些人群认为他们的监管极其软弱无力,而另一些人群认为他们是独裁者,违反言论自由。而且在这些「主流」社群媒体之外,新的社群媒体,甚至专门用来造假新闻的媒体,源源不断地产生。如何在充分保护言论自由的基础上,应对这个挑战,是一个尚待解决的重大问题。

用人工智能造谣固然是新的挑战,但造谣是人类社会从来就有的现象。的确,宪政的原则是保护言论自由,因此法律不能立即禁止任何人造谣。但是法律的原则里还有一条:不能以任何方式损害他人的利益。应对造谣的相关法律有两大类:刑法民法

谎言与民主宪政完全不相容。如果社会充满了谣言,如果多数人相信谣言,民主宪政不可能建立,已经建立的民主宪政则受到极大的威胁。不幸的是,在2020年大选过程中,有空前大量的谎言和谣言流行,对宪政形成空前的挑战。没人知道将会在什么时候、以什么方式解决相关的问题。但可以确定的是,为了保护民主宪政制度,美国的全社会、立法机构、法院、大学、媒体、社群媒体等等,一定会在宪政基础上,设法解决大规模造谣、传谣的问题。

(作者为美国华人学者)