眼见不为凭! 刑事局传授「这一招」 AI变脸诈骗秒破解

刑事局提醒AI变脸诈骗手法。(翻摄照片/林郁平台北传真)

近期深度伪造(Deepfake)技术的快速发展,警方指出,这项技术可以制造出逼真的虚假影像和音讯,将人们的脸孔和声音合成到完全捏造的场景中,不肖分子可能使用这种技术,假冒亲友或名人从事诈骗或制造假讯息,提醒民众眼见不为凭!

警方表示,随着社群网络的发达,运用社群媒体及通讯软体的便利性,与亲朋好友联络或联络公务已成为民众日常生活的一部份,但「科技始终来自人性」,「诈骗也是利用人性」,随着科技的进步,利用AI深伪(Deepfake)变脸技术假冒亲友、同事或名人的诈骗手法也随之而生。

所谓的AI深伪(Deepfake)变脸技术,可以制造出逼真的虚假影像和音讯,仿真度极高,从正面观看来以假乱真,很容易让民众误认。刑事局表示,目前可先破解AI变脸诈骗的方式是侧脸、脖子部位,现今软体不会侦测分析及套用到,因此侧面影像会产生模糊状,脸部跟脖子也会产生色差。

刑事局特别拍摄「拆解AI深伪(Deepfake)变脸诈骗影片」,同时呼吁民众,由于科技进步,任何事情不再能以「眼见为凭」视之,现今AI变脸软体内建许多来自不同人种的脸部图片,甚至连名人、明星的照片也有,且软体使用者还可以自由选择性别及种族。

民众如果与熟人视讯察觉有异,或是与生活中未见过的人,或自称检警的公务人员视讯,可以要求对方转头、变换姿势、在脸前挥手,就可以借由影像破绽分辨出对方是否使用深伪AI技术变脸,千万不要因为镜头的那端是以为的熟人就受骗上当,接获各项影音讯息务必提高警觉,也谨记「谈到钱要警觉、谈借钱要查证、谈投资金钱要当心」,发现深伪犯罪或遇有疑虑,可打防诈专线165咨询查证。