OpenAI 面臨重大領導層變動和戰略轉變
在一系列戲劇性的發展中,OpenAI,這家開發了流行的 GPT 語言模型的公司,正在經歷人事和方向上的重大變化。
關鍵人物離職震撼領導層
OpenAI 的聯合創始人兼首席科學家 Ilya Sutskever 於週二宣佈離開公司。這一決定發生在他參與試圖罷免 CEO Sam Altman 的爭議事件近六個月之後。緊隨 Sutskever 之後,另一位與他一起致力於 AI 安全倡議的高管 Jan Leike 也宣佈辭職。
Superalignment 團隊解散
也許最引人注目的是,據報道 OpenAI 已經解散了其 Superalignment 團隊。這個於 2023 年 7 月成立的團隊,肩負著控制超智慧 AI 系統可能帶來的存在性風險的關鍵任務。據報道,該團隊的職責將被整合到公司內部的其他研究工作中。
優先事項和關注點的轉變
這些變化引發了人們對 OpenAI 在 AI 安全承諾方面的質疑:
- Jan Leike 表達了對領導層的不滿,稱在為關鍵研究獲取必要的計算資源時遇到了困難。
- Superalignment 團隊一直在研究使用較小模型來控制大型 AI 模型的開創性方法。
- OpenAI 中最積極倡導 AI 安全的幾位人士近幾個月已經離開了公司。
新發展和未來方向
雖然這些離職和重組工作仍在進行中,但 OpenAI 繼續推進新技術:
- 公司最近推出了 GPT-4 Omni,這是其最新的前沿模型,具有超低延遲和更接近人類的反應。
- OpenAI 表示,Superalignment 的工作現在將更深入地融入整個研究過程。
- OpenAI 的聯合創始人 John Schulman 將領導未來關於更強大 AI 模型相關風險的研究。
隨著這些變動的塵埃逐漸落定,AI 社群將密切關注 OpenAI 如何在追求尖端 AI 能力與確保強健的安全措施和對齊研究之間取得平衡。