公务机关机密文件将禁用生成式AI

生成式人工智慧(AI)快速发展,例如ChatGPT,虽然可提升工作效率,但也有侵权疑虑。(路透)

生成式人工智慧(AI)快速发展,例如ChatGPT,已对全球发生巨大影响,虽然可以提升工作效率,但也有侵权疑虑。国科会发布「行政院及所属机关(构)使用生成式AI参考指引(草案)」,明订公务机关制作机密文书禁用生成式AI,若作为执行业务或提供服务辅助工具时,应适当揭露。学者认为,民间单位也应该参考国科会的指引,慎防企业机密、个资外流。

生成式AI热潮袭卷全球,带来一体两面的冲击,有人主张政府应对AI的应用有所规范,产业界则希望政府不要管太多。国科会主委吴政忠18日受访时说,生成式AI变化速度很快,太赶着提出相关法规,反而可能绑住产业发展机会,因此在人工智慧基本法出炉前,先释出对公部门的指引,并观察国际立法趋势。

国科会公布指引 使用应揭露

这份公部门使用生成式AI参考指引包含3重点,第1,如果使用生成式AI做为执行业务或提供服务辅助工具时,应适当揭露;第2,制作机密文书资料应由业务承办人员亲自撰写,禁止使用生成式AI;第3,各机关不可完全信任生成式AI产出的资讯,也不得以未经确认的产出内容,直接作成行政行为或作为公务决策的唯一依据。

国科会科技办公室执行秘书沈弘俊表示,生成式AI搜集资讯能力强大,如果公务员去问问题,一不小心就会泄露政府机密。例如,国防部若有人去问军事相关问题,丢出一些资料后,就会被AI搜集,万一「对岸」再上去问类似问题时,就会取得我方资讯,那就很麻烦。

沈弘俊指出,包括欧盟、加拿大及中国大陆等都在研拟人工智慧相关草案,尚未有国家订出法律。国科会先订出使用生成式AI的指引,供公务机关执行业务时参考。

学者建议 民间单位也应订定

元智大学资管系主任禹良治说,民间单位也应参考国科会所订的指引,因为生成式AI的云端资料库,会搜集使用者输入的资料,如果提问内容具机密性,相当于是将自己的机密送给这家生成式AI公司,风险很大。

阳明交大应数系教授李育杰说,曾有韩国三星员工使用ChatGPT,却造成该公司资料外泄。同样的,我国官员出访,若政府部门人员去GhatGPT询问到访国家资讯,可能会泄漏官员行踪,引发难以预料的事。

李育杰指出,生成式AI具有翻译功能,假设台积电有人将2奈米制程资料放上ChatGPT,要求将中文翻成英文,这就可造成重要商业机密外泄,因此台积电对员工使用ChatGPT就有规范。

李育杰表示,人工智慧进步得太快,「我们都很惊讶」,人们觉得使用生成式AI很便利的同时,也要知道它的副作用,否则很容易造成机密、个资外泄。他认为,国科会订的参考指引,可以唤起公民意识,民间单位也会察觉到使用生成式AI的可能风险,并进一步防范。

花莲县府 已用AI草拟新闻稿

目前在地方政府中,仅花莲县府用AI拟新闻稿、讲稿,另有高雄市议员郭建盟6月总质询时,破天荒以ChatGPT质询,要求高雄市长陈其迈重视少子化危机,但涉及范围均非机密文件。各县市政府都表示,将遵照国科会指引使用新兴科技工具,桃园市府则已制定相关管理规范草案,方向与国科会相同。

国科会表示,在研拟的《人工智慧基本法》草案中,包括AI法律名词定义、隐私保护、资料治理、AI风险管控、AI伦理原则规范、产业推动,以及AI应用遵法与合法性等7面向。