OpenAI更新安全原則 讓董事會有足夠權限否決推行具風險的人工智慧技術
OpenAI稍早更新其人工智慧安全原则,其中说明即使公司领导层认为其人工智慧技术足够安全,董事会依然有足够权限限制其推行计划。
在新版安全原则中,包含现任执行长Sam Altman在内高层带领推动的人工智慧技术,只要董事会认为有潜在风险时,将有权限制或推翻技术推行计划。
这样的作法,凸显董事会仍有足够权限规范OpenAI推行的人工智慧技术发展走向,避免产生潜在安全风险,并且造成灾难性的影响结果,例如导致数千亿美元经济损失,或是让众人生活受到伤害等。
目前OpenAI分别透过「预备」 (Preparedness)、「安全系统」 (safety systems)与「最高准则」 (Superalignment)三个独立团队监督其人工智慧技术发展,其中包含评估人工智慧在不同领域是否造成危害,以及确认技术是否有安全漏洞,另外也将提防未来出现不可控管的人工智慧技术。
而OpenAI也呼吁其他业者能以相同安全原则评估人工智慧潜在风险,将人工智慧依照不同类型区分为低、中、高,以及关键风险,并且判断人工智慧技术实际应用效益。在新版安全原则之下,OpenAI表示仅会推出风险评估在低、中的人工智慧技术应用模型。
《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》