OpenAI宫斗戏再起:安全团队被卡算力,Sam Altman准备发长文
访问量:342

界面新闻记者 | 伍洋宇

OpenAI“离职潮”的体面还是被打破了。

这次带头打破这种“默契”的不是更居核心地位的前首席科学家Ilya Sutskever,而是OpenAI超级对齐小组另一位联合负责人Jan Leike。

事实上,直到昨天为止,这种表面和平都还维持得很好,但只发表一句“我辞职了”的Jan Leike显然有些欲言又止。没过多久,他在一条新的更加正式的告别推文下,连续回复了12条评论,揭开了他与Ilya Sutskever离职幕后隐情的冰山一角。

这些内容投射出的核心逻辑是,Jan Leike认为OpenAI拥有非常多极为聪明、善良和高效的人才,其团队过去三年也做出了众多令人兴奋的成果。但是过去一段时间以来,Jan Leike已经越发无法认同领导层对于OpenAI核心优先事项的决策,直到他们达到一个临界点。

比如说,Jan Leike认为应该把更多算力用于为下一代模型做好准备,包括安全性、监测、超级对齐、保密性、社会影响等方面。但过去几个月,其团队一直在逆势而行。Jan Leike暗示自己团队在算力上遭遇阻碍,“有时我们在计算上很吃力,完成这项重要研究变得越来越困难。”他写道。

其余的内容更像是Jan Leike对OpenAI的劝告。“建造比人类更聪明的机器本身就是一项危险的尝试。OpenAI正肩负一个代表着全人类的巨大责任。OpenAI必须成为一家安全第一的人工智能公司。”

最后他喊话OpenAI:“学会感受AGI,采取与你正在构建的事物相匹配的庄重态度。我相信你可以‘实现’所需的文化变革。我指望你了。全世界都指望着你。”

Sam Altman当然不是没有回应。他转发了Jan Leike包含以上所有回复的推文,并在转发语中例行感谢了对方的杰出贡献,更重要的是,他表示“我将在接下来的几天发布一篇更长的帖子。”

这意味着Jan Leike抛出的话题引起了OpenAI领导层的足够重视。因为前者的说法如果是事实,OpenAI必然要面临一场难以停息的舆论审判:你们对AGI的安全是否不够重视?不仅如此,你们甚至压迫了力求保证AGI安全的技术团队?

这一定是领导层和董事会都不愿意看到的舆论危机,毕竟公司从上一波宫斗戏结束到趋近平稳,才过去不到半年。

给这场风波蒙上另一层噱头的是传闻中的一份离职协议。

据Vox报道,OpenAI员工们在离职时要签署一份条件非常严苛的协议,其中非常重要的一条就是,离职员工必须遵守不能泄密且不能贬低OpenAI。这项协议几乎禁止这些离职员工在往后所有时间中谈论OpenAI,甚至承认这份保密协议的存在也是对它的一种违反。

离职员工拒绝签署这份协议的代价可能是巨大的,因为这似乎会影响他们在职期间获得的股权价值。前述报道称,离职保密协议在硅谷很常见,但与股权挂钩的情况很少。

不过,OpenAI相关发言人随后对以上核心信息作出回应称,“我们从未取消过任何现任或前任员工的既得股权,如果员工在离职时不签署免责协议或禁止贬低协议,我们也不会取消。”Vox援引线人消息称,这一声明与他们所理解的政策之间有了变化。而OpenAI坚持表示该声明反映了现实。

OpenAI在过去一年以来的确已经不再像当初那样开源,网友也开始戏谑其为“CloseAI”。在公司表达的立场上,闭源是出于安全考虑。但如今,肩负安全责任的Jan Leike都开始对OpenAI公开批判,并与Ilya Sutskever双双离职。

这意味着,OpenAI再用“安全”因素为闭源做解释,已经有些难以维系局面了。此外,两位重磅人物退出,以及数位安全团队成员纷纷离开,Sam Altman大概确实需要一封长信了。

此刻,市场、行业和资本,都在等他。