突发!OpenAI再失一名高管,安全主管辞职

添加书签

专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!

5月18日凌晨,OpenAI安全主管、超级对齐负责人Jan Leike在社交平台宣布,离开OpenAI。

这也是本周三OpenAI联合创始人兼首席科学家Ilya Sutskever辞职之后,又有一名高管辞职。

相信随着二人的离开,后续还会有不少人离开OpenAI。这也标志着去年由Ilya发起的“罢免Sam Altman” 事件以失败落幕。

OpenAI首席执行官Sam Altman在第一时间给出了回应,感谢并肯定了Jan在OpenAI的贡献和领导能力。

并表示,未来几天内会发表一篇更长的文章,来阐述OpenAI对于产品安全的规划和所做的事情。

Jan在辞职演讲中表示,他加入OpenAI是因为,OpenAI是全世界最适合做大模型安全研究的公司。

但是,OpenAI的高层领导似乎对安全对齐已经不是那么上心了,直到爆发了无法挽回的局面,所以,是时候离开了。

他也承认,构建比人类更聪明的AI机器人是一项非常危险的事情,不想看到《终结者》、《机械公敌》那种科幻电影变成现实,机器人失控并开始清理人类。

OpenAI正在代表整个人类肩负着巨大的责任,向AGI(通用人工智能)砥砺前进。

应该将更多的算力、基础设施用于产品的安全、对抗鲁棒性、超级对齐、数据保密、监控等领域。

所以,OpenAI应该是以安全为主的AGI公司,而不是一味的发布一些没有安全保证的危险产品。

对于Ilya、Jan的辞职,有人表示这两位安全领导高管都辞职了,以后谁来负责OpenAI的产品安全呢?

也有一位网友爆料,想离开OpenAI没问题,但是你必须签署一份“离职协议”, 如果你不签署终身不诋毁承诺,将失去所有已获得的OpenAI股权。

不知道Jan的一番吐槽,是否会影响到他的股权。

虽然本周OpenAI发布了再一次震惊科技圈的多模态大模型GPT4o,但内部人事也迎来了大变革,可能会对未来的产品发布例如,GPT-5等带来一些不确定的因素。

2023年11月18,Ilya认为Sam的产品路线出现了大问题,太激进完全不顾产品的安全性,随后发动了震惊全球科技界的“罢免Sam Altman” 事件。

经过十多天周旋之后,Sam在微软的强力帮助下重新回到了OpenAI执掌大权。

如今,Ilya等人已经辞职,没了捆龙锁的Sam会在AGI的道路继续狂飙吗?让我们拭目以待吧。

关于Jan Leike

加入OpenAI之前,Jan曾在谷歌DeepMind工作,主要负责从人类反馈中进行强化学习的原型设计。在OpenAI期间,参与了InstructGPT、ChatGPT的开发以及GPT-4的安全对齐工作。

Jan曾发表了《Weak-to-Strong Generalization: Eliciting Strong Capabilities With Weak Supervision》、《Self-critiquing models for assisting human evaluators》、《Deep Reinforcement Learning from Human Preferences》等多篇知名大模型安全论文。

Jan Leike

2023年,Jan 被《时代》周刊评为AI领域最具影响力的100 位人物之一。

本文素材来源Jan Leike社交账号,如有侵权请联系删除

END

本篇文章来源于微信公众号: AIGC开放社区