深度伪造难辨真假?陆国安部吁慎防间谍「改头换面」
大陆国安部23日撰文示警,要严防深伪技术(Deepfake)包含如「改头换面」带来的国安泄密风险。 (示意图:shutterstock/达志)
大陆国安部微信公众号23日发文,随着人工智慧技术发展,「深度伪造」(Deepfake)技术进入生活成为新兴技术工具,但也因为应用门槛低,高度欺骗性的视觉听觉伪造内容难以发现,让潜在安全风险凸显,示警应保护好个人隐私,特别是核心涉密职位人员,切勿将国家、商业秘密或个人隐私等敏感资讯输入相关技术软体中,不用网路传播涉密内容。
所谓的「深度伪造」技术是深度学习(Deep Learning)与伪造(Fake)的结合,利用人工智慧的深度学习演算法进行自动化的数据处理,进行图片、音讯及影片智慧类比和伪造,延伸包括影片、音讯与虚假网路身份伪造技术等,出现高度逼真且难以甄别的影音内容。
例如透过将提供的人物面部照片特征「转换」到其他人物形象上,进而实现「改头换面」;又或借由音讯伪造技术达到语音复制,高度模拟目标人物的声音。
大陆国安部撰文指出,深度伪造技术可能威胁国家安全和公共安全。深度伪造技术不仅会在一般行业得到应用,也有可能成为间谍情报机关进行认知战的新工具。随着深度伪造技术的发展,某些境外间谍情报机关可能进一步利用该技术反复运算情报技术手段,展开招募策反、污蔑抹黑、混淆视听等活动。