OpenAI 大變動:關鍵領導層離職,公司轉向關注 AI 安全

BigGo Editorial Team
OpenAI 大變動:關鍵領導層離職,公司轉向關注 AI 安全

OpenAI 面臨重大領導層變動和戰略轉變

在一系列戲劇性的發展中,OpenAI,這家開發了流行的 GPT 語言模型的公司,正在經歷人事和方向上的重大變化。

關鍵人物離職震撼領導層

OpenAI 的聯合創始人兼首席科學家 Ilya Sutskever 於週二宣佈離開公司。這一決定發生在他參與試圖罷免 CEO Sam Altman 的爭議事件近六個月之後。緊隨 Sutskever 之後,另一位與他一起致力於 AI 安全倡議的高管 Jan Leike 也宣佈辭職。

Superalignment 團隊解散

也許最引人注目的是,據報道 OpenAI 已經解散了其 Superalignment 團隊。這個於 2023 年 7 月成立的團隊,肩負著控制超智慧 AI 系統可能帶來的存在性風險的關鍵任務。據報道,該團隊的職責將被整合到公司內部的其他研究工作中。

優先事項和關注點的轉變

這些變化引發了人們對 OpenAI 在 AI 安全承諾方面的質疑:

  • Jan Leike 表達了對領導層的不滿,稱在為關鍵研究獲取必要的計算資源時遇到了困難。
  • Superalignment 團隊一直在研究使用較小模型來控制大型 AI 模型的開創性方法。
  • OpenAI 中最積極倡導 AI 安全的幾位人士近幾個月已經離開了公司。

新發展和未來方向

雖然這些離職和重組工作仍在進行中,但 OpenAI 繼續推進新技術:

  • 公司最近推出了 GPT-4 Omni,這是其最新的前沿模型,具有超低延遲和更接近人類的反應。
  • OpenAI 表示,Superalignment 的工作現在將更深入地融入整個研究過程。
  • OpenAI 的聯合創始人 John Schulman 將領導未來關於更強大 AI 模型相關風險的研究。

隨著這些變動的塵埃逐漸落定,AI 社群將密切關注 OpenAI 如何在追求尖端 AI 能力與確保強健的安全措施和對齊研究之間取得平衡。