曾參與GPT-4模型預先訓練、對齊的OpenAI安全系統團隊負責人翁荔宣布離開
OpenAI安全系统团队负责人翁荔 (Lilian Weng)稍早在其个人「X」平台宣布将于11月15日离职,结束其在OpenAI长达7年的职涯,而OpenAI方面则说明感谢其过去以来在任内投入安全研究,并且建立严谨的技术应用安全保障所作贡献。
翁荔最早于2012年加入当时的Facebook担任软体工程与资料科学实习人员,2014年加入Dropbox担任资料科学研究人员及软体工程师,随后则在2016年加入提供先买后付服务的金融科技公司Affrim,并且在2018年加入OpenAI担任研究人员,更2023年开始带领OpenAI安全系统团队,2024年则担任安全研究部门副总裁。
而在OpenAI任职期间,翁荔也曾参与GPT-4人工智慧模型预先训练、强化学习,以及让模型运作结果符合设计预期目标的人工智慧对齐 (AI alignment)事宜,同时也在OpenAI人工智慧应用服务背后安全机制扮演重要角色。
今年9月中旬时,OpenAI宣布成立全新独立董事会,借此监督日前成立的安全委员会,同时也宣布执行长Sam Altman不再是安全委员会成员之一,意味将确保OpenAI提出的人工智慧技术解决方案将能更加安全。
在近期消息中,指出OpenAI下一版人工智慧模型将以「Orion」为称,但整体上的改进幅度较小,甚至在特定领域如编码生成应用表现仅与先前版本持平,不会像先前版本会有全面提升感受。
目前OpenAI团队似乎更倾向让人工智慧模型可在新进训练资料供应量减少情况下持续获得改进,其中包含采用以人工智慧生成全新合成资料训练新版模型,并且针对训练后的模型运作方式进行改善。
而OpenAI方面并未对此作任何回应,先前也透露今年并未计划更新新版人工智慧模型。
《原文刊登于合作媒体mashdigi,联合新闻网获授权转载。》