歐洲議會通過人工智慧法 依風險高低管理AI應用

欧洲议会大会通过全球最早出炉的人工智慧法案。 路透

欧洲议会大会今天通过全球最早出炉的人工智慧法案,将根据风险高低来管理这项新科技,包括社会评分、透过网路或监视器抓取民众脸部影像以建立人脸辨识系统等,都在禁止之列。

欧洲议会(European Parliament)在史特拉斯堡召开大会投票通过「人工智慧法」(AI Act),为欧盟境内的人工智慧开发和应用建立规则。

在该法之下属于最高风险而被禁止的AI应用方式,包括使用敏感的个人特症来建立生物辨识归类系统,例如政治立场、宗教信仰、种族或性倾向;从网路或监视器(CCTV)搜集不特定对象的脸部画面,用以开发脸部辨识资料库;在工作场所或教育机构进行情绪辨识;根据个人特性或行为进行社会评分等。

社会评分、监看上课投入程度的情绪辨识及各种人脸资讯搜集等,都是在中国发生的人工智慧运用现象。

不过,欧盟AI法另为执法目的提供例外,包括为了寻找绑架肉票等犯罪被害人、防范特定恐怖活动、搜寻定位重罪嫌犯等情况,可运用AI进行前述禁止行为,但须事先取得法院同意并限定时间和区域。

该法也禁止将AI用来挖掘使用者的弱点,例如行动不便、年龄、社会经济地位等,以及透过AI操弄人类行为,使其失去自由意志。

此外,像是运用在关键基础设施、教育、雇用、健康或金融服务等领域的人工智慧系统则被列为「高风险」,系统开发经营者有义务评估并降低风险、透明化并确保系统运作时有真人在监督。

针对没有特定使用目的之「一般用途型AI」(General Purpose AI),欧盟AI法要求须有一定透明度,包括公布训练模型所用到的内容,并遵守著作权法规。例如ChatGPT就属一般用途型AI,可用于写文章、编曲、作报告、当然也可能被有心人用来协助犯罪。

根据议会与欧盟部长理事会(Council of theEuropean Union)去年12月对此法案的初步意见,将责成欧盟执行委员会(European Commission)建立对一般用途型AI在资安、透明度和风险管理上的基本要求。

欧盟AI法试图在防弊与兴利间取得平衡,因此也设有各成员国可订定为鼓励创新而暂免特定法律严管的沙盒(sandbox)等规定。

违反此法将可能被处以750万欧元至3500万欧元(约新台币2.6亿至12亿元)或企业全球营收1.5%至7%范围内的罚款。

主责这套法案的议员图朵拉齐(Dragos Tudorache)今天在记者会表示,该法只是「一段更长远旅程的开端」,因为AI技术持续发展,包括军事领域等,人们进入一个全新的世界,而法律须跟上科技的演变。

此法案已在去年12月经议会与部长理事会两个欧盟立法机构达成暂时性共识,议会今天投票后,尚待部长理事会正式同意、刊登公报后才生效。