前OpenAI研究人员警告“老东家”:若AI无监管将造成灾难性伤害
IT之家 8 月 24 日消息,据《商业内幕》北京时间今天上午报道,OpenAI 公开表示了对加州 SB 1047 法案(AI 安全法案)的反对意见之后,两名 OpenAI 的前研究人员则站出来公开反对自己的“老东家”,并提出警告。
美国加州 AI 安全法案将要求 AI 公司采取措施,防止其模型造成“严重损害”,例如开发可能导致大量人员伤亡的生物武器或造成超过 5 亿美元(IT之家注:当前约 35.66 亿元人民币)的经济损失。
这些前员工向加州州长加文・纽森和其他立法者致信称,OpenAI 对该法案的反对令人失望,但并不令人意外。
两名研究人员威廉・桑德斯和丹尼尔・科科塔伊洛在信中写道,“我们(以前)之所以选择加入 OpenAI,是因为我们希望确保该公司在开发的‘强大无比的 AI 系统’的安全性。但我们选择离开,是因为它失去了我们的信任 —— 能够安全、诚实、负责任地开发 AI 系统。”
信中还提到,OpenAI CEO 阿尔特曼曾多次公开支持对 AI 实施监管,但当实际的监管措施准备出台时,他们却表示反对。“在没有充分安全预防措施的情况下开发前沿 AI 模型,会给公众带来可预见的灾难性伤害风险。”