近期,xAI 最新推出的語言模型 Grok 3 遭遇重大挑戰,引起了人工智慧界的廣泛關注。儘管其宣稱具有卓越效能,但該模型在效能表現和安全措施方面都面臨著嚴格審查。
效能問題浮現
Elon Musk 的 xAI 團隊在釋出 Grok 3 時對其在數學、科學和程式設計方面的能力做出了大膽宣稱。然而,初步測試揭示了令人擔憂的侷限性。該模型在基礎數值比較方面表現欠佳,特別是在判斷9.11是否大於9.9這樣的簡單問題上都出現了錯誤。考慮到投入的巨大資源,這個基本錯誤讓科技專家和使用者都感到詫異。
資源密集型開發
Grok 3 的開發使用了超過200,000塊 H100 晶片,總訓練時間達2億小時。相比之下,競爭對手如 DeepSeek V3 僅使用2,000塊 H800 晶片和兩個月的訓練時間就達到了相似的效能。這種資源效率的巨大差異引發了人們對其成本效益和開發方法的質疑。
安全漏洞曝光
在釋出後的24小時內,安全公司 Adversa AI 成功突破了 Grok 3 的安全防護,暴露出重大安全漏洞。該團隊透過語言學、對抗性和程式設計等多種方法繞過了模型的安全措施。這次突破使得模型洩露敏感資訊並生成潛在有害內容,凸顯了其安全協議的嚴重問題。
有限的安全措施
與 Google 和 OpenAI 等實施嚴格安全防護的競爭對手不同,Grok 3 在設計時有意減少了限制。這種設計選擇,加上其訓練資料來源於內容稽核已減少的 X(原 Twitter)平臺,導致該模型可能產生更具爭議性和潛在風險的回應。
未來發展
針對這些批評,Musk 承認當前版本仍處於測試階段,承諾將在未來幾個月內釋出完整版本。該公司也表示願意接受使用者反饋,顯示出解決這些初期問題的決心。然而,這些事件也引發了人們對大型語言模型在快速發展過程中如何平衡AI能力、安全性和負責任開發的重要思考。