15秒樣本就能複製人類聲音!OpenAI披露語音複製新工具 將嚴格管制
OpenAI。撷取自路透社
美国人工智慧(AI)开发公司OpenAI今天披露一款语音复制工具,打算在落实保护措施以防范语音造假诈骗之前都实施严格管制。
法新社报导,根据OpenAI一篇分享小规模测试成果的部落格文章,这款名为Voice Engine的模型主要可根据15秒的声音样本复制一个人的声音。
总部位于旧金山的OpenAI表示:「我们承认生成类似某人声音的言论具有重大风险,尤其先考量到选举年…我们与政府、媒体、娱乐、教育、公民社会等领域的美国和国际伙伴合作,确保我们在打造过程中纳入他们的意见。」
造假资讯研究员担心AI驱动的应用程式在关键选举年遭大量滥用,因为语音复制工具愈来愈多,且费用低廉、使用简单又很难追踪。
认知到这些问题的OpenAI表示,「基于合成语音滥用的可能性」,将对更广泛的发布采取谨慎态度且随时掌握状况。
数月前,美国一名民主党总统初选候选人的政治顾问承认假冒总统拜登的声音拨打AI生成的自动语音电话,内容听起来像是拜登呼吁选民不要在今年1月的新罕布什尔州初选投票。
这起事件令专家警觉,他们担心在今年11月美国总统大选和全球其他重要选举之前出现大量AI生成的深伪假资讯。
OpenAI表示,测试Voice Engine的伙伴已同意一些规范,包括要求所有声音被这项工具复制的人都必须明确知情同意。
OpenAI还说,也必须明确告知受众,他们听到的声音是AI生成。
OpenAI表示:「我们已实施一系列安全措施,包括打上数位浮水印,以追踪所有Voice Engine所生成音讯的源头,并主动监控这项工具的使用方式。」