资安是发展AI基石 黄彦男:年底前公布AI风险分级框架

GDDA全球数位产业联盟协进会与国际通商法律事务所(Baker McKenzie)共同举办 「2024 GDDA / Baker McKenzie国际AI资安论坛」,邀请专家学者共同探讨企业及公部门在引入AI时应注意的资讯安全风险管理,以及应对资安危机时的解决机制。

黄彦男会中以「迈向智慧政府,保障国家资安」为题发表专题演讲,他引述工研院产科国际所资料,指2030年AI将为世界经济贡献15.7兆美元,且有97%企业肯定ChatGPT为企业带来好处;生成式AI能协助使用者处理文字与影音、生成影音、生成及扩增资料、设计流程与规格,甚至可以进行程式设计,正重塑各产业的样貌。

不过,黄彦男提醒,伴随生成式AI应用,可能有各种风险及影响,包括带来虚假讯息、侵犯智慧财产权、资讯安全、内容违反法律规范或伦理道德,甚至可能操弄舆论、影响国家安全等,其中,prompt injection(提示词注入)攻击成为最大威胁,三星去年发生3起使用 ChatGPT导致数据泄露的事件,有员工透过该平台修复专有程式原始程式码,无意间将最高机密泄露给其他公司的AI,便是一例。

除此之外,黄彦男指出,AI也让骇客的网路攻击更动态、速度更快且有效,进而大幅增强威胁形势,因为AI可协助骇客加速攻击侦察,甚至使用AI来执行数百种可能的攻击情境,并使用AI来利用弱点,在遭到阻挡时,可在几毫秒内转向新的攻击途径。

黄彦男强调,发展AI时需要资安,而在资安上也可以利用AI研究新兴攻击态样,比传统的方法更快判断风的优先次序,进而更快、更有效率地回应资安威胁,两者是没办法分开的。他说,目前国科会已预告制定「AI基本法」草案,当中强调「隐私保护」与「人权」,数发部将据此推动「人工智慧风险分级框架」,各目的事业主管机关得循前项风险分级框架,订定其主管业务的风险分级规范。

黄彦男并透过简报指出,借由制定AI应用的标准和规范,提升其可信度与安全性,可让台湾在国际市场上更好地展示技术创新能力,增加国际竞争力,此外,在确保AI技术快速发展同时,也要保障劳工权益,促进社会稳定与发展。

另针对产业关注如何培育AI跨域人才,黄彦男透过简报表示,可建构人才循环学习实作环境,以及国内外大厂资源共创协作新思维,透过带案人场,打造专属AI解决方案且落地实证,必须「整合人才用AI,产业应用导AI,开发人才写AI」。他认为,现在很多产业都已经参与,这是台湾的机会。