英美签署AI安全双边协议

英美两国签署AI安全双边协议,履行去年11月在英国AI安全峰会的承诺。图/美联社

美英AI安全测试协议重点扫描

全球大打AI军备竞赛,也忧心AI潜藏的风险,美英两国率先以国与国方式建立伙伴关系,研究如何测试及评估AI模型风险,并签署全球首份AI安全双边协议,携手开发先进的AI模型测试,共享与AI安全相关的知识技术与人才。

美国商务部长雷蒙多(Gina Raimondo)与英国科技大臣唐萃兰(Michelle Donelan),1日在美国华府签署谅解备忘录,内容除提到共同开发先进的AI模型测试,两国政府也将共享与AI安全相关的技术知识、资讯及人才,履行去年11月在英国AI安全峰会做的承诺。

根据这项协议,美英拟对可公开取得的AI模型至少进行一次联合测试演习,并探究双边机构人员交流的可行性。为促进AI安全,美英均将致力与其他国家建立类似伙伴关系。

AI模型及系统的能力和风险、AI安全技术研究,美英对这些关键讯息都有彼此分享的打算。

根据协议,英国去年11月成立的「AI安全研究院」(AI Safety Institute)及美国对口单位将成专责机构,透过借调两国研究人员交换专业知识。此外,就如何独立评估OpenAI、谷歌等民间企业建构的AI模型,美英AI研究机构也寻求合作。

OpenAI推出聊天机器人ChatGPT,在全球掀起生成式AI热潮,矽谷科技巨头前仆后继加入AI军备大战,但也引发部分工作遭淘汰、影响大选及其他道德隐私风险的隐忧。

去年10月,美国总统拜登签署旨在降低AI风险的行政命令。美国商务部今年1月宣布一项提案,要求美国云端业者须做出判断,看是否有外国实体想透过美国数据中心训练AI模型。

英国2月表示,将斥资逾1亿英镑设立九座全新AI研究中心,并对监管机关人员进行AI技术培训。

除了英美在AI安全议题联手合作,拥有27个成员国的欧盟也积极推进AI监管法规。欧洲议会在今年3月13日通过全球第一个AI法案,借此规范和管理ChatGPT等AI系统。欧盟各成员国最快在4月批准该法案,5月或6月公布在欧盟公报,正式成为法规之后12个月生效。