台權會憂「人工智慧基本法」有抵觸個資法疑慮 學者這樣看

国科会今年7月公布「人工智慧基本法」草案,台权会认为,现行的草案版本缺乏研发及部署人工智慧可遵循的治理路径,更有抵触个资法的疑虑。情境示意图。路透

国科会今年7月公布「人工智慧基本法」草案,希望我国在发展人工智慧的同时,也能兼顾人权与风险的保障。不过,台湾人权促进会指出,现行的草案版本,缺乏研发及部署人工智慧可遵循的治理路径,更有抵触个资法的疑虑。

台权会针对草案第5条提出质疑,认为要求隐私保护与资料治理、资安与安全,及透明与可解释等其他法规的解释与适用,要以「以不妨碍新技术」为原则,就可能造成「人工智慧基本法」拉擡至个资法与金融监管、医疗器材等法规之上,将剥除既有可用来确保人工智慧资料来源、应用安全性的法律工具,形同自废武功。

台权会指出,人工智慧发展累积至今,已发生不少问题,像是司法院发展生成式AI用于草拟刑事案件判决出现争议;法务部再犯风险评估AI透明度与使用情况有待进一步资讯揭露等。

对此,国科会回复,按法律适用之原则,除非有某法规排除其他法之明确规定,否则无法导出某法规得迳予排除某法规之适用。而AI基本法草案并未排除我国其他法规之适用,因此,无排除个资法、金融监管、医疗器材等法规之虞。

阳明交大科法院特聘教授林志洁说明,科技法的管制要回归到国家是科技的发展还是使用端来思考。她举欧洲为例,因为欧洲非科技研发的区域,只是使用者,所以对科技发展的管制相对严格;但美国对于科技法的约束就相对宽松,因为过度的管制会影响产业发展。

林志洁提到,台湾目前的科技发展的定位应与美国较相似,都是以研发为主,对于「基本法」的订定相对有弹性也在情理之中。她说,基本法的订定偏向概略、通则,是提供产业发展的方向与弹性,但对于个别产业的影响,则可再由个别产业的主管机关订定规范,就不会有抵触他法的疑虑。

林志洁指出,也可与金融科技发展初期的「监理沙盒」模式借镜,设计一个风险可控管的实验场域,提供给各种新兴科技的新创业者测试其产品、服务以及商业模式的环境,再修改或制定新兴科技监管法规的方向跟参考。她强调,「让子弹飞一阵子」,再去通盘考虑法律的制定,产业的发展、权利的保障才能双赢。