生成式AI关键 KPMG提三缺
此外,谢昀泽认为,人对AI的信任度,有如消费者食安疑虑,必须正视且有效解决,未来可透过「以AI技术进行AI生成内容的辨识工具」、及「可匿踪但不可否认的浮水印」两大黑科技「防深(伪)术」强化AI内容信任度。
被OpenAI称为「世界模拟器」 的Sora即将推出,一键生成几可乱真影片的能力除颠覆使用者的眼球世界,更推翻真实世界的信任基础。
谢昀泽分析,最新AI技术生成的影像,破绽都不在主体,因此已经很难用肉眼判别;反而是用AI技术判定图像是否为AI生成,成效显著且可合理说明判定原因,替未来AI多媒体内容的自动化确信机制增加可行性。
谢昀泽提醒,使用者对网路影音过去的认知是「有片有真相」,以后要转变为「保持怀疑,确信来源」,才能够在生成式AI普及的网路世界中,具备基本的「防深(伪)术」。
针对Meta等数位内容巨头正联合发展共同的浮水印技术,谢昀泽认为,将AI生成的数位内容放上浮水印注明出处、日期等资讯,是「责任AI (Responsible AI)」建立透明化的信任工程基础。
只是目前传统浮水印会影响画面美观,网路传布的影像因为经过加工及压缩,可能破坏浮水印标记,因此预测未来的新技术必须要达成识别标志可以匿踪,但又有「不可否认性」的数位凭证效果。
谢昀泽强调,后AI时代最重要的即是建立AI治理规范,以提升使用者对AI的信赖度,除了期待相关的防伪技术突破,如AI基本法等AI及电子签章新法的增修、数位内容发布平台的自律,与使用者AI素养的提升,也都是关键。