热评 | 给人工智能贴标签,让技术风险的警报随时可以拉响

浏览社交媒体时,你是否刷到过某些标题吸引眼球而正文言之无物的"泡水文"?你又是否刷到过那些长相英俊或甜美但似乎科技感十足的帅哥美女?你是否怀疑过,你刷到的是人工智能生成的文字、图片或视频?

今天,国家互联网信息办公室发布《人工智能生成合成内容标识办法(征求意见稿)》,其中指出,人工智能生成合成内容标识包括显式标识和隐式标识。服务提供者提供的生成合成服务属于《互联网信息服务深度合成管理规定》第十七条第一款情形的,应当对生成合成内容添加显式标识,即可被用户明显感知到的标识。

《征求意见稿》明确,用户向提供网络信息内容传播平台服务的服务提供者上传生成合成内容时,应当主动声明并使用平台提供的标识功能进行标识。任何组织和个人不得恶意删除、篡改、伪造、隐匿生成合成内容标识。

出台相关办法,其目的正在于消除用户对信息内容背后生成合成技术的疑虑,厘清互联网信息传播平台上"真"与"伪"的界限,避免海量信息的真假混杂对公众认知、审美造成的干扰。

事实上,社交媒体平台上已经出现了生成合成技术滥用的苗头。比如在体育领域,许多自媒体文章已经有别于传统意义上的"标题党":在一个极具争议的标题下,正文既没有信息增量,也没有鲜明的观点和逻辑,全文充斥着"车轱辘话",让读者根本摸不着头脑。更有甚者将文字生成技术用于"预测"赛事比分、"撰写"尚未开始的比赛的赛后报告,或是捏造球员的转会信息、职业背景。这些文章看似真实可信,实则一派胡言。

只是因为体育领域的关注度、影响力相对有限,所以读者对这些文章大多一笑置之。但是假如这种趋势扩散到了其他领域,尤其是社会民生领域,假如别有用心者利用文字生成技术造谣传谣,那么将会对正常的新闻传播秩序产生颠覆性的影响,甚至会对社会秩序造成冲击。

此外,韩国近期爆出的"深度伪造色情内容"事件也在提醒着我们,假如不对生成合成技术的应用加以节制管控,一旦其成为犯罪的工具,那么许多人的名誉、尊严将受到严重威胁。而且,利用深度伪造技术实施的犯罪一旦得手,其影响范围、持续时间、恶劣程度都将因为极高的逼真度而大大提升。

所以,甄别生成信息、区分真伪信息、拦截有害信息迫在眉睫。但要求平台提供标识、内容制作者使用标识,仅仅是这项工作的第一步。更重要的,是督促各大信息平台升级技术手段,加强对生成合成内容的检测识别,对利用技术生成的不实信息、有害信息加大拦截处置力度,对刻意隐瞒技术使用并造成不良后果的内容制作者加大惩处力度。

生成合成技术这柄双刃剑,已经将其同样锐利的两面展现在世人眼前。我们在为工作效率提升而感到欣喜的同时,有必要对技术的无序应用引起足够的警惕。为技术贴上标签,实际上是在给人类原创信息与人工合成信息之间加设一层过滤网,为人工智能技术对人类受众认知的逆向影响安装一台随时触发的警报器。

作者:

文:孙欣祺 编辑:孙欣祺 责任编辑:孔韬

转载此文请注明出处。