英韓合辦AI峰會 16家企業簽署AI安全承諾、這家陸企也入列

英国与南韩21至22日共同举办人工智慧(AI)安全峰会。英国政府表示,已有来自北美、欧洲、中东、亚洲等16家企业签署与AI科技研发有关的安全承诺,其中包括中国企业「智谱AI」。

英国政府寻求在AI安全国际规范和技术标准扮演领导角色,促进在「严加管制」和「自由放任」两种AI安全管控策略之间取得平衡,并成立全球第一所「AI安全研究院」(AI Safety Institute),透过预先取得业界开发中产品等方式,实际测试评估各类新AI模型和工具的能力及风险,以协助增进各国对AI安全的理解。

去年11月,英国召开首届全球AI安全峰会,有近30个国家的官方代表,以及超过80个学术研究机构、企业和公民组织与会。今年5月,英国与南韩合办线上峰会,规模较小,下一场实体峰会则由法国主办,明年召开。

根据英国科学创新暨科技部(DSIT)释出的资料,峰会尚未正式展开,已有16家AI科技企业签署安全承诺,要点包括不得发展或部署安全风险无法获充分缓解的AI模型或系统、建立可供问责的安全管理架构,以及向大众揭露各企业对前沿AI(frontier AI)科技安全的应处策略。

这16家签署「前沿AI安全承诺」(Frontier AI SafetyCommitments)的企业包括OpenAI、亚马逊(Amazon)、谷歌(Google)及其旗下DeepMind、Meta、马斯克(Elon Musk)去年创办的xAI、微软(Microsoft)、IBM。

另外还有三星电子(Samsung Electronics)、Anthropic、Inflection AI、Mistral AI、Cohere、G42、Naver、智谱AI、阿拉伯联合大公国的「科技创新研究院」(Technology Innovation Institute)等。

英国科技部指出,这16家企业名单包含AI两大强权:美国和中国。

科技部表示,这些企业将各自发布AI安全框架,向大众说明未来将如何测算自家前沿AI模型的安全风险,包括遭恶意行为者滥用的风险,以及各家企业对安全风险的最高容忍极限为何、如何确保AI模型的安全风险不会超越此预设门槛。

在极端情况下,若企业在采取补救措施后,仍未能将AI模型或系统的安全风险保持在门槛以下,则不得继续发展或进一步部署该模型或系统。

英国科技部指出,在订定前沿AI安全风险门槛时,相关企业已承诺将寻求「受信任行为者」的意见,包括本国政府(前提为若情况适当)。

根据议程,英国首相苏纳克(Rishi Sunak)和南韩总统尹锡悦,以及英国科技大臣唐萃兰(Michelle Donelan)和南韩科技部长李宗昊将在21和22日分别共同主持一场高阶会议。