生成式 AI 遭恶意滥用,美国政府敦促科技行业遏制换脸视频传播
IT之家 5 月 25 日消息,据美联社,美国政府要求科技行业和金融机构关闭日益猖獗的“利用人工智能生成色情图像”市场。
报道指出,新出现的生成式 AI 工具可以轻松将一个人的肖像变成具有性暗示内容的 AI 换脸视频,从而便于这类逼真的深度伪造图像在网上传播,而受害者(无论是名人还是儿童)都几乎没有办法阻止这种情况的发生。
白宫呼吁企业主动采取合作,并通过一系列具体行动遏制这种未经当事人同意就创作、传播 AI 图像并从中获利的行为发生,尤其要打击涉及儿童的色情内容。
“当生成式 AI 出现时,每个人都在猜测第一个真正意义上的危害会出现在哪里。我认为我们已经有了答案”,拜登的首席科学顾问、白宫科学技术政策办公室主任阿拉蒂・普拉巴卡尔(Arati Prabhakar) 解释说。
她告诉美联社,由于人工智能工具的推动,未经同意传播图像的情况“大幅增加”,尤其针对女性和女孩,而这类内容可能会颠覆她们的生活。“我们看到这类问题正在加速发展,因为生成式人工智能正在飞速发展。最快的解决办法就是让这些公司站出来承担责任。”
美联社记者拿到的一份文件指出,美国政府不仅仅只是呼吁 AI 开发者采取行动,还希望支付处理机构、金融机构、云计算供应商、搜索引擎以及“互联网看门人”—— 即苹果、谷歌等这类公司采取行动,严格把控应用商店中的内容。
白宫认为,这些商业公司应该加大力度,遏制此类侵犯行为的“货币化”过程,限制支付渠道,尤其限制那些发布未成年人露骨图片的网站。
普拉巴卡尔提到,许多支付平台和金融机构已经发表声明,表示他们不会为传播此类图片的公司提供服务支持。不过她也强调有些人并没有严格执行,这些服务条款(即帮助受害者快速清理此类侵权内容)相当于不存在。
美联社指出,最出名的色情伪造图片受害者恐怕要数泰勒・斯威夫特(Taylor Swift)。今年 1 月,有大量关于这位歌手的 AI 色图开始在网上流传,而斯威夫特的粉丝也对此进行了反击。后续,有部分伪造图像被追查至微软公司旗下的 AI 视觉设计工具,而微软也承诺将加强防护措施。实际上,在美国和其他地方,也有数量众多的学生在与深度伪造裸照作斗争,部分属于校园暴力,也有部分是学生好奇心作祟。
美国政府去年10 月签署了一项行政命令,旨在引导人工智能的健康发展,希望各大科技公司能够在不危及公共安全的情况下获利。拜登也表示,政府的人工智能保护措施需要得到法律的支持,相关团体目前正在敦促国会在未来三年内至少投入 320 亿美元(IT之家备注:当前约 2320 亿元人民币)来开发 AI,并为控制和监管 AI 的能力提供资金。
白宫性别政策委员会主任珍妮弗-克莱因(Jennifer Klein)对此表示:“鼓励公司参与进来并做出自愿承诺,并不能改变国会在此采取行动的根本需要。”
斯坦福大学互联网观察站去年 12 月宣布,它在庞大的人工智能数据库 LAION 中发现了数千张疑似儿童色情的图片。
本月早些时候,联邦检察官对威斯康星州一名男子提出指控,该男子涉嫌使用 AI 图像生成器 Stable Diffusion 制作了数千张未成年人性行为图像。
对此,Stable Diffusion 背后的 Stability AI 公司本周表示,它 “没有批准发布 ”威斯康星州男子使用的模型,但也承认这种开源模型“覆水难收”,因为其技术组件已经完成在网上公布。
普拉巴卡尔表示,造成危害的不仅仅是开源 AI 技术。“这是一个更广泛的问题。不幸的是,很多类似的人似乎都在使用这种 AI 图像生成器。我们刚刚看到那个领域出现了爆炸式的增长,而我不认为开源系统和专有系统可以完美切割开来。”