生成式AI恐引发深假危机 KPMG教战三招自保

所谓「深假技术」,指使用甲的脸孔,搭配乙的身材与动作,用丙的嘴型说出的变造的内容,在现代AI技术下,是不难达成的任务,但可能造成严重的资安危机。

举例来说,骇客用ChatGPT针对不同企业,产生数万封钓鱼邮件后,再运用伪造声纹假冒财务长致电财务人员进行汇款;或骇客用生成式AI的强大分析与归纳功能,找出藏于企业内部未曾发现的弱点,借此进行网路进阶攻击或机密窃取。

KPMG安侯企业管理(股)公司执行副总经理林大馗预测,如果生成式AI连动既有的深假技术威胁,可能导致风险加乘,未来AI所创造的假文章、假程式、假邮件、假影片将大量涌现且难以识别,进而影响到生成式AI的正确性。

他也据此对企资安提出三大自保之道,首先是除了标配防火墙与防毒软体,可能还需透过「人工加工人智慧」的打假工具及内容确认工程师等协作,才能有效降低AI所带来的资安风险。

第二是在新兴的风险治理工具尚未成熟前,一般企业可以建立「智慧型主动式」的防护能量,例如在公开影片中添加专属的杂凑值或安全凭证,以确保来源的真实性并防止骇客暗中搜集与恶意窜改;或扩大运用「MFA多因子认证」让消费者透过两种以上的认证机制,才能取得授权。

第三则是为了降低骇客攻击的的风险及提升使用者隐私安全性,企业可以参考零信任(Zero Trust)资讯架构,避免以一次验证后即可长时间与完全取用所有服务的传统做法,改采依据不同的服务风险等级、搭配多次且不同方式的验证,降低单一识别方法失效的灾损程度,确保适当与匹配的风险控管。