假婴儿真恐怖 加萨战火深伪影像助长AI误导疑虑

以哈开战使加萨走廊房屋毁损、死伤惨重。但近期却传出许多当地被炸毁的房屋和街道照片中,有些画面是利用AI深伪技术合成。(图/路透社)

以色列与哈玛斯开战以来,加萨走廊被炸毁的房屋和街道照片中,有些画面极度恐怖,例如浴血弃婴,这些影像是利用AI深伪技术合成,在网路上有数以百万计的浏览量。

美联社报导,如果仔细观察会发现一些破绽,例如手指弯得很怪,或眼睛闪烁着不自然光芒,这些都是数位欺骗的迹象。

然而,制造这些影像来激发的怒火,却是非常真实的情绪。

以色列与巴勒斯坦武装团体「哈玛斯」(Hamas)战争相关照片生动且强烈地凸显人工智慧(AI)作为宣传工具的潜力,被用于创造逼真的屠杀影像。自上个月以哈战争爆发以来,社群媒体上流传的数位修图被用来制造关于伤亡究责的不实说法,或欺骗民众有暴行但实际上从未发生。

虽然网路上流传的不实说法大多不需要动用到AI,而是来自更传统的来源,但科技进步也让频率变高,而且几乎没有监管机制。这使得AI成为另类武器的潜力变得显而易见,也让人得以一窥未来冲突、选举和其他重大事件中将会发生的情况。

总部设于旧金山和巴黎的科技公司CREOpoint利用AI评估网路说法的正确性,执行长戈登斯坦(Jean-Claude Goldenstein)表示:「情况会恶化,变得更糟,之后才会好转。」这家公司建立一个资料库,储存有关加萨走廊(Gaza Strip)最疯传的「深伪」(deepfake)技术生成内容,「有了生成式AI,照片、影片和音档将有前所未见的『升级』」。

在某些案例中,其他冲突或灾难的照片被重新利用,冒充成新照片。另有生成式AI程式被用来「无中生有」创造新的影像,例如有个婴儿在轰炸残骸中哭泣的影像在冲突初期迅速流传。

其他AI生成影像的例子包括据称是以色列飞弹袭击的影片,或战车驶过被摧毁的社区、家属在瓦砾堆中搜寻生还者的影片。

在许多案例中,假照片目的似乎是要激起强烈的情绪反应。在血腥冲突初期,以色列和哈玛斯的支持阵营都指称对方伤害孩童和婴儿,哭泣婴儿的深伪影像随即被当成「证据」。

追踪战争假消息的非营利组织「对抗网路仇恨中心」(Center for Countering Digital Hate)执行长阿迈德(Imran Ahmed)表示,制作这类影像的宣传人员善于瞄准人们心中最深层的冲动和焦虑。

影像愈令人厌恶,网路用户就愈有可能记住并且分享,从而在不知不觉中成为假消息传播的帮凶。阿迈德说:「假消息目的是让你参与其中。」

俄罗斯去年入侵乌克兰后,网路上也开始流传类似的AI生成欺骗性内容。一段经过修改的影片似乎显示乌克兰总统泽伦斯基(Volodymyr Zelenskyy)下令乌克兰人投降。这类说法直到上周都还在持续流传,显示即使很容易被揭穿的错误资讯也可以持久存在。

每当有新的冲突或选举季节,假消息传播者又有机会展示最新AI进展。许多AI专家和政治学家对来年的风险发出警告,届时有多个国家将举行重大选举,包括美国、台湾、印度、巴基斯坦、乌克兰、印尼和墨西哥。

AI和社群媒体可能被用来向选民传播谎言的风险引发美国两党议员担忧。维吉尼亚州民主党籍联邦众议员康诺里(Gerry Connolly)在最近有关深伪技术危险的听证会上表示,美国必须资助研发目的在对抗其他AI的AI工具。

世界各地许多新创科技公司正在开发新程式,协助揪出深伪影像、在影像中添加浮水印以证明来源,或扫描文字以验证任何可能有AI介入的似是而非说法。

电脑科学家多尔曼(David Doermann)表示,虽然这种技术有前景,但利用AI撒谎的不肖人士往往领先一步。多尔曼曾在美国国防先进研究计划局(DARPA)协助因应AI操纵影像构成的国安威胁。

现为大学教授的多尔曼表示,若要有效因应AI假消息构成的政治和社会挑战,需要更好的技术和监管机制、自愿性产业标准以及对数位素养计划的广泛投资,以助网路用户了解分辨真假的方式,「侦测并试图将这些内容撤下不是办法,我们需要更大的解决方案」。