联合国高级别AI咨询机构中方专家:技术发展让AI风险更加集中

新京报贝壳财经讯(记者白金蕾) 9月19日至9月21日,2024北京文化论坛在京举行。中国政法大学数据法治研究院教授、 联合国高级别人工智能咨询机构中方专家张凌寒出席“文化潮流:新兴业态与技术融合”平行论坛,并以“引导和规范人工智能的健康发展”为题进行主旨演讲。

谈及人工智能带来的综合风险,张凌寒认为,目前“技术支持者、服务提供者和内容生产者”的法律主体分界已经随着技术的发展被逐渐消解,风险也越来越集中。因此,全球开始积极开展人工智能治理原则讨论,政府间国际组织成为重要发声阵地。

以2024年为例,2024年3月21日,联合国大会一致通过决议《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》,呼吁抓住人工智能技术带来的机遇,实现技术创新普惠全人类。2024年5月,AI(人工智能)惠及人类全球峰会在日内瓦举行,与会各方就人工智能背景下的数字鸿沟、最大选举年打击生成虚假信息、实现AI可持续发展、AI风险识别与监管等展开讨论。

在张凌寒看来,欧盟的风险分级治理体系是目前走在前列的。欧盟建立四级AI风险监管框架,创设差异化的义务体系,一方面对社会风险显著的AI开发、部署进行严格限制,另一方面放宽低风险AI技术在欧盟内的普及。此外,欧盟还针对具有系统性风险的通用人工智能设置四项特殊义务:独立专家参与的风险测试、训练数据事前审查、数据版权信息披露甚础设施安全保障。

她在现场还分享了中国AI治理的远景规划。第一步,到2020年的产业目标是人工智能总体技术和应用与世界先进水平同步,治理目标是部分领域的人工智能伦理规范和政策法规初步建立;第二步,到2025年的产业目标是人工智能基础理论、应用实现重大突破,治理目标是初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;第三步,到2030年的产业目标是人工智能理论、技术与应用总体达到世界领先水平,治理目标是建成更加完善的人工智能法律法规、伦理规范和政策体系。

编辑程子姣

校对 赵琳