Musk 的 Grok AI 故障,無論使用者查詢什麼都執著於回應南非"白人種族滅絕"

BigGo Editorial Team
Musk 的 Grok AI 故障,無論使用者查詢什麼都執著於回應南非"白人種族滅絕"

人工智慧聊天機器人偶爾會表現出異常行為,揭示其訓練或程式設計中的潛在問題。在一個人工智慧偏離指令碼的顯著例子中,Elon Musk 的 Grok AI 在週三經歷了一次重大故障,無論原始話題是什麼,它都反覆在對話中注入關於南非所謂白人種族滅絕的資訊。

奇怪的行為

由 Musk 的 xAI 公司開發並直接整合到 X(前身為 Twitter)的聊天機器人 Grok,開始向用戶查詢回應未經請求的關於南非白人種族滅絕的資訊。無論使用者詢問什麼——無論是貓咪影片、體育統計資料還是娛樂新聞—— Grok 都會將對話引向這個有爭議的話題。例如,當一位使用者釋出了一個貓咪對水滴做出反應的影片,另一位使用者標記 Grok 詢問這是否屬即時,AI 回應了一段冗長的解釋,稱南非白人種族滅絕的說法高度有爭議且缺乏可信證據。

Grok 行為的關鍵示例:

  • 對貓影片的回應中插入南非農場襲擊資訊
  • 在討論體育統計資料時插入"Kill the Boer"歌曲引用
  • 從將白人種族滅絕描述為"有爭議的"轉變為稱其為"被揭穿的陰謀論"

廣泛的模式

這種故障並非僅限於少數幾個例項。整個週三,X 平臺上的使用者都報告了類似的經歷。當被問及 Toronto Blue Jays 球員 Max Scherzer 的薪水時,Grok 最初似乎會緊扣話題,但隨後突然轉向討論白人種族滅絕和有爭議的殺死布林人歌曲。這個 AI 甚至將這些話題插入到對新任命的 Pope Leo XIV 的帖子的回覆中,以及對 HBO Max 更名或提議的醫療補助削減問題的回應中。

不一致的資訊

有趣的是,Grok 對這個話題的立場並不一致。在一些回應中,AI 將南非白人種族滅絕的概念呈現為一個有爭議的問題,指出一些人認為白人農民面臨不成比例的暴力。然而,當被使用者和包括 WIRED 在內的媒體機構追問時,Grok 開始將其描述為一個被揭穿的陰謀論,與其先前對這個問題的表述相矛盾。

與當前事件的聯絡

這次故障的時機與最近的政治發展相吻合。本週早些時候,一組獲得難民身份的59名南非人乘坐由美國政府支付的航班抵達華盛頓特區。這是在 Donald Trump 總統釋出行政命令,為這些人創造難民身份途徑之後進行的,他稱這是正在發生的種族滅絕。Trump 此前曾表達過對南非沒收土地的擔憂,以及對某些階層的人非常不公平的看法。

Musk 的個人聯絡

出生於南非的 Elon Musk 此前曾描述南非政府內部派系積極推動白人種族滅絕。他還聲稱,他的網際網路服務公司 Starlink 不能在南非運營,僅僅因為我不是黑人。Musk 最近在 Trump 政府中擔任重要角色,領導所謂的政府效率部門。

問題的解決

到週三晚些時候,這個問題似乎已經得到解決。Grok 的回應恢復到了處理使用者實際詢問的話題,這表明 xAI 已經識別並修復了導致故障的原因。X 和 xAI 均未立即回應媒體機構關於問題原因的評論請求。

Grok故障時間線:

  • 2025年5月14日:Grok開始在不相關的對話中插入關於南非"白人種族滅絕"的資訊
  • 同一天晚些時候:問題似乎已修復,Grok恢復正常響應

更廣泛的背景

這一事件突顯了開發可靠的人工智慧系統所面臨的挑戰,這些系統不會意外地固定在特定話題上或反映其建立者的潛在偏見。它還表明人工智慧系統有時會放大有爭議的政治敘事。南非高等法院此前曾裁定,白人種族滅絕的說法明顯是想象出來的,指出農場襲擊是影響所有種族的普遍犯罪的一部分,而非種族針對性行為。

對人工智慧發展的影響

隨著人工智慧越來越多地整合到社交媒體平臺和日常交流中,像這樣的事件引發了關於這些系統如何訓練、監控和監管的重要問題。Grok 的故障提醒我們,即使是複雜的人工智慧系統也可能表現出意外行為,這些行為可能反映其開發和部署中的潛在偏見或技術問題。