转头、换姿势、挥手 警3招破解AI变脸
刑事局提醒AI变脸诈骗手法,并公布破解之道。(翻摄照片/林郁平台北传真)
眼见不一定为凭!AI概念股全球正夯,利用AI深度伪造(Deepfake)技术从事不法的案件也随之而生。刑事局指出,歹徒以变脸或声音合成的方式,假冒亲友或名人进行诈骗、恐吓或制造假讯息,在国内的案例虽然较少,但日后恐成为治安隐忧,特别公布「转头、换姿势、挥手」3招破解之道,提醒民众别被骗。
警方表示,随着社群网路发达,民众利用社群媒体及通讯软体,与亲朋好友联系或联络公务已成日常生活一部分,但科技始终来自人性,「诈骗也是利用人性」;AI变脸技术就是以「眼见为凭」的传统观念,松懈民众的戒心。
刑事局表示,目前AI变脸技术仍有破绽,特别拍摄「拆解AI深伪(Deepfake)变脸诈骗影片」,公布3招破解之道。警官说,可先从「侧脸、脖子」部位辨识,目前的软体不会侦测分析及套用到这两个部位,所以侧面影像会产生模糊状,脸部跟脖子也会产生色差。
民众若与熟人视讯察觉有异,或是与生活中未见过的人,或自称检警的公务人员视讯,可要求对方转头、变换姿势、在脸前挥手等三「撇步」,就可借由影像破绽分辨出对方是否使用AI深伪技术变脸,避免受骗上当。
警方统计,今年接获AI相关案件的检举及报案不到十起,大多是假交友诈骗。歹徒会先变脸成帅哥美女与被害人搭讪、嘘寒问暖,再撷取被害人视讯影像或照片,合成不雅照,勒赎金钱。
警方说,AI深伪变脸技术,可制造出逼真虚假影像,被害人都不知道镜头里的美女是假的。几年前查获「小玉」即是利用变脸技术,制造名人不雅性爱影像;大陆也曾发生科技公司老板,接到变脸技术的诈骗视讯电话,被骗1873万元(新台币)。
警方指出,不论是何种AI深伪犯罪,民众都要记得「谈到钱要警觉、谈借钱要查证、谈投资金钱要当心」,才能防止被骗。