人工智能技术应用亟待规范
近日,一系列由AI生成的配音视频在网络上引发关注,其逼真程度令人惊讶,不仅画面栩栩如生,声音特征也与真人几乎无异,短时间内便收获了过亿次的播放量。然而,这些视频中的内容与画面中的公众人物毫无关联,现已被平台下架。
AI技术的发展降低了深度伪造和低价量产的门槛,AI生成影像、换声及换脸视频大量出现。这些视频虽吸引眼球,但背后隐藏的风险却不容忽视。
当前,虚假信息的制造和传播已成为全球性问题,以假乱真的AI合成技术让普通人在信息甄别上陷入困境。《2024年人工智能安全报告》显示,基于AI的深度伪造欺诈在2023年激增30倍,对网络安全和社会安全构成严重威胁。虚假信息的泛滥,不仅扰乱了网络空间的正常秩序,更可能将负面情绪从虚拟世界传导至现实,加剧社会焦虑。
应对深度伪造等乱象,需要多方协作、共同治理。目前,我国已出台《互联网信息服务深度合成管理规定》等法律法规,从源头加强内容管理。同时,《人工智能生成合成内容标识办法(征求意见稿)》的发布,也标志着国家层面正加大对AI技术的监管力度。只有让AI在合法合规的框架内健康发展,才能让人们真正享受到技术变革带来的红利,推动人工智能产业良性发展。
作为信息传播的重要一环,平台运营商和服务提供者也应承担起相应的责任,对AI生成内容划定红线,严禁违法违规、侵权欺诈内容的传播,并添加显著提示标识,防范虚假信息扩散。此外,利用数字水印、时间戳、哈希函数等技术手段,既能提高信息真实性的可验证性,也是防范虚假信息传播的有效手段。作为内容消费者,受众也应保持警惕,提高辨别AI生成内容的能力,避免偏听偏信。 (作者:李秋旸 来源:经济日报)