科技.人文聯合講座/聽其言而觀其行

最近聚餐时,友人手机的铃声响起,只见他一边说是诈骗集团打来的电话,一边又拿起手机侃侃而谈。笔者数度以手势劝阻,但友人仍与对方纠缠多时后才悻悻然挂断。

友人说他极痛恶诈骗集团,每次接到骗徒来电总要好好消耗他们的战力,让他们徒费唇舌,无功而返。友人侠气干云,令人敬佩,但如此大剌剌地把自己的声音「喂养」歹徒,却很可能让自己落入险境而不自知。

语音克隆(voice cloning)是一种复制模拟个人声音的技术,只要撷取短短几秒钟的声音,人工智慧拟声技术就能掌握其声纹特质,从而生成维妙维肖的音声。因此,不明来电千万不要接,若不小心接了也不要多费唇舌,赶快挂断以策安全。一旦歹徒掌握了个人声纹特质,就可以透过即时拟声系统与人对话,听起来就像是用模拟的声音说话。

拟声系统的用途,除了增强娱乐与教育功能外,也有助于人们实现未竟心愿。例如今年初夏,黄仁勋演讲时就用拟声技术,以咬字清晰的中文旁白,说明数位孪生地球可更准确预测台湾气候变化。然而,科技就像一把双面刃,利之所在,弊亦藏之。如今,这些先进技术,竟被用来迷惑受害者,大家都得当心。

近日一则国外报导指出,愈来愈多的案件显示,诈骗歹徒利用人工智慧技术模拟受害者的亲友声音,并利用它们来勒索金钱。在识别受害者的家庭成员后,歹徒使用伪造的声音拨打电话、语音讯息或语音邮件,骗说因意外事故或资金短缺,请求紧急汇款。虽是诈骗老哏,但受害者被熟悉的亲友声音突破心防,一时不察就上当了。

在社群网路上,大家或多或少都留有影音或照片,潜藏被不肖之徒伪造仿冒的风险,更不用说高度曝光的网红。国外有位网红,持续在影音平台发布关于软体开发的优质影片,五年来共吸引了七十多万位爱好者订阅。最近,他发布一部短片「他们用人工智慧窃取了我的声音」(They stole my voice with AI),叙述某家科技公司盗用他的声音,竟然以他从未说过的话语推销产品。

该网红不想花大钱走法律诉讼途径,只去函要求盗用的公司道歉和补救。他说:「你不该窃取某人的声音或肖像,然后将其应用到自己的产品或影片上。」令人想起今年五月时,好莱坞巨星「黑寡妇」乔韩森(Scarlett Johansson)痛斥OpenAI擅自模拟她的声音,然后使用于ChatGPT的语音助理。

除了声纹外,验证通关使用的生物辨识特征还包括人脸、指纹和虹膜等,在在都潜藏或高或低的伪造仿冒风险,真让人防不胜防。有朝一日,不论是巨星、网红或普罗大众,大家都得面对种种以假乱真的恶形恶状。

如今,当我们在电话听到至亲好友的声音时,切莫轻易信以为真,最好再测测只有双方知道的默契密语,以免误信贼人,后悔莫及。(作者为台湾大学资讯工程系教授)