OpenAI解散风险管控团队

知情人士表示,OpenAI已解散该团队,部分成员将被分配到公司其他单位。

OpenAI共同创办人苏兹克佛(Ilya Sutskever)与机器学习研究员雷克(Jan Leike)14日相继宣布离开OpenAI。两人负责领导Superalignment团队。

OpenAI去年7月宣布成立Superalignment,该团队将专注于「科学与技术突破,以引导与控制比人类更聪明的AI系统」。OpenAI当时承诺,未来四年内将投入20%运算能力至该计划。

但消息人士透露,该团队的资源请求经常遭到OpenAI拒绝,导致该团队难以做事。

尽管Superalignment成功发表一系列安全研究成果,但随着新产品发布占用公司愈来愈多心力,该团队认为自己必须争取到更多资源。

雷克17日在X社交平台上表示:「我加入OpenAI,是因为我认为这间公司是进行这类研究的最佳地点。但我与OpenAI高层对于公司优先要务的想法分歧已有一段时日,目前已到达临界点。」

雷克认为,公司应将更多资源分配给AI安全、监控、准备与社会冲击。OpenAI必须成为一家「安全第一的AGI(通用AI)公司」。

他表示:「建造比人类更聪明的机器是一项危险工作,但过去几年以来,安全文化与流程的重要性远不如新颖产品。」

苏兹克佛更是OpenAI去年宫斗的主角之一。他与OpenAI旧董事会成员当时解除执行长奥特曼职务。这场人事斗争的根本原因是,苏兹克佛与奥特曼对于AI发展抱持不同看法,前者认为应确保AI不会伤害人类,后者则致力于推动新技术。