海纳百川》欧盟监管AI法案出炉 强制要求伦理与透明度(张瑞雄)
欧盟历经两年多的谈判后,终于达成了一项具有历史意义的AI法案,该法案将建立全球首个全面的AI监管框架。(图/shutterstock)
欧盟历经两年多的谈判后,终于达成了一项具有历史意义的AI法案,该法案将建立全球首个全面的AI监管框架。此法案通过对高风险AI系统实施严格的规则和监督,同时允许技术的大多数主流用途,以实现AI的创新和负责任的发展。
随着像ChatGPT这样的大型语言模型的出现,AI系统迅速发展,可以生成非常类似人类创作的文本或其他资料。这些强大的AI技术的潜在利益和风险凸显了规范化以减少危害的迫切需要,欧盟引领制定了道德AI标准,可能影响全球的方向。
AI法案的一个重要特点是引入了对AI系统透明度和伦理的强制性要求,科技公司经常吹嘘自己的自愿伦理原则,但缺乏责任和透明度。这项法律将要求实践,例如在使用聊天机器人或生物特征系统时通知用户,以及正确标记像深度伪造这样的AI生成的内容,提供银行和保险等服务的公司还必须评估AI对基本权利的影响。
这些透明度的义务目的在遏制AI中的欺骗和偏见,它们迫使科技公司认真考虑道德因素,而不仅仅是口惠。将这些义务纳入法律赋予了它们真正的力量,因为违规将受到严厉的罚款。这种方法不仅仅是针对高风险的AI应用,而是促进整个AI产业的负责任发展。
尽管为所有AI制定基本规则,但该法案的核心重点是限制明显危险的AI应用。它将AI分为不可接受的风险、高风险、有限度风险和极小风险。不同的风险有不同的义务,对不可接受的风险施以最严格的控制。
法案同时在几个领域实行完全禁止,例如对基本私人和公共服务的使用控制、会乘人之危的操纵、以及某些生物特征的使用,如按族群对人进行分类。其他高风险领域,如医疗、就业、执法、移民控制和教育,将面临风险管理、数据质量检视、文件记录、人工监督等各方面的严格要求。
这种基于风险的方法聚焦于容易受到歧视或侵犯权利的敏感情境,其他大多数主流AI用途继续不受太多限制,目的在预防AI危害和创新之间取得实际平衡。但一些批评者认为,它留下了太多科技公司可能利用的漏洞。
AI的发展是方兴未艾,欧盟认识到微调复杂的创新政策需要一个迭代的、以证据为基础的过程。虽然这部法案为走向负责任的AI迈出了重要的第一步,但在将法案转化为实际预防措施和有效的实践方面还有很多工作要做。
随着技术以不可预测的方式演变,持续更新监管框架非常重要。但在针对AI的第一个全面的全球监管达成共识,欧盟已经很负责任的起了头,这项突破肯定会在未来几年影响人类与AI不断发展的关系。
(作者为台北商业大学前校长)
※以上言论不代表旺中媒体集团立场※