「AI变脸」诈术再进化 金门警教妙招找出影像破绽

「深伪」的技术应用能结合AI仿真人学习,加上影像合成,恐将沦为诈骗工具,提醒民众「眼见不为凭」,小心上当。(图/警方提供)

诈骗集团招数不断进步,金门县警察局察觉近期很常见的AI人工智慧技术,出现一种「深伪(Deepfake)」的技术应用,能结合AI仿真人学习,加上影像合成,能以非常逼真的方式,来达到「换脸」或是「变声」等效果,透过视讯诱使民众上当。警方提醒,如果与熟人视讯察觉有异,或与生活中未见过的人或者自称检警的公务人员视讯,可要求对方转头、变换姿势、在脸前挥手,借由影像破绽分辨对方是否使用深伪AI技术,以免遭骗。

警方指出,早期「深伪技术」主要用于假讯息散布,或是诽谤,以及侵犯个人隐私等犯罪行为,例如先前YouTuber小玉换脸事件,或是模仿名人进行冒名宣传。然而,随着这项技术的普及,其应用范围逐渐扩展到娱乐、新闻、社交媒体,甚至进一步被诈骗集团学习应用。

金门县警局特别针对「深伪技术」进行研析,并列举深伪结合诈骗的三大手法,包括:

1.电话诈骗(猜猜我是谁):歹徒利用模仿特定人物声音的功能,冒充亲朋好友或其他知名人士的声音,取信被害人后,以诈骗金钱和个人资料。

2.视讯诈骗:「深伪技术」可用于合成逼真的影片、语音,或结合视讯功能,冒充企业高层向下属发送虚假指示,例如要求转移资金或提供机密信息。

3.恐吓诈骗:诈骗集团可能会将个人肖像移花接木,用以合成不雅照片,在寄送给被害当事人,借此恐吓勒索。

金门县警局长卢廷彰呼吁社会大众,不能再以「眼见为凭」看待网路所见,「深伪技术」结合诈骗手法,个人的声音和影像遭到盗用后,民众更难区分真伪,面对科技进步所带来的犯罪威胁时,保持警惕和怀疑的心态,检查来源的可信度,化被动为主动,确保信息的真实可靠,才不会落入诈骗集团陷阱。