挪威男子因 ChatGPT 虛構其謀殺子女的指控提起法律訴訟

BigGo Editorial Team
挪威男子因 ChatGPT 虛構其謀殺子女的指控提起法律訴訟

AI幻覺已經跨越了一個令人不安的新門檻,OpenAI 面臨法律訴訟,原因是 ChatGPT 編造了可怕的犯罪指控。當一個AI聊天機器人不只是編造無害的瑣事,而是錯誤地指控你謀殺了自己的孩子時,會發生什麼?一位挪威男子發現自己處於這個噩夢般的情景中心,引發了關於AI責任和資料保護的嚴重問題。

令人不安的事件

Arve Hjalmar Holmen,一名挪威公民,當他決定向 ChatGPT 詢問關於自己的資訊時,感到震驚。這個AI自信地回應了一個編造的故事,聲稱Holmen謀殺了他的兩個兒子,並試圖殺死他的第三個孩子。聊天機器人甚至具體說明Holmen因這些虛構的罪行被判處21年監禁。使這一幻覺特別令人不安的是,ChatGPT 正確識別了關於Holmen生活的幾個個人細節,包括他孩子的數量和性別、他們的大致年齡以及他的家鄉。這些準確的個人資訊與完全虛構的犯罪指控一起出現。

ChatGPT 虛構細節:

  • 錯誤聲稱 Arve Hjalmar Holmen 謀殺了兩個兒子
  • 錯誤陳述他試圖殺死第三個兒子
  • 錯誤聲稱他服刑21年
  • 正確識別了個人詳細資訊,包括子女數量、性別和家鄉

法律回應和GDPR影響

在這起令人不安的事件之後,Holmen聯絡了隱私權倡導組織 Noyb,該組織現已向挪威資料保護局 Datatilsynet 提交了正式投訴。投訴指稱 OpenAI 違反了《通用資料保護條例》(GDPR),特別是第5(1)(d)條,該條要求處理個人資料的公司確保其準確性。當資料不準確時,該法規要求必須更正或刪除。

投訴中引用的 GDPR 條款:

  • 第5(1)(d)條:要求個人資料準確,如不準確則需更正或刪除
  • 第15條:賦予個人獲取其個人資料的權利

永續性問題

雖然 ChatGPT 的底層模型已經更新,不再重複這些關於Holmen的誹謗性宣告,但 Noyb 認為這並不能解決根本問題。根據他們的投訴,錯誤的資料可能仍然是大型語言模型資料集的一部分。由於 ChatGPT 將使用者資料反饋到其系統中用於訓練目的,除非進行完全重新訓練,否則無法保證虛假資訊已從模型中完全清除。這種不確定性繼續給Holmen帶來痛苦,而他從未被指控或判決任何犯罪。

更廣泛的合規問題

Noyb 的投訴還強調了 ChatGPT 遵守GDPR第15條的更廣泛問題,該條款賦予個人訪問其個人資料的權利。大型語言模型的性質使使用者幾乎不可能看到或回憶起可能已納入訓練資料集的所有關於自己的資料。這一根本限制引發了嚴重的問題,即像 ChatGPT 這樣的AI系統是否能夠完全遵守現有的資料保護法規。

OpenAI 的有限回應

目前,OpenAI 處理這類幻覺的方法似乎很有限。該公司在每個 ChatGPT 會話的底部顯示一個小免責宣告,上面寫著ChatGPT 可能會犯錯。請考慮核實重要資訊。批評者認為,考慮到AI生成的虛假資訊可能導致的潛在傷害,特別是當它們涉及對可識別個人的嚴重犯罪指控時,這種做法遠遠不夠。

儘管 ChatGPT 回應可能帶來嚴重後果,OpenAI 仍承認其中可能存在錯誤
儘管 ChatGPT 回應可能帶來嚴重後果,OpenAI 仍承認其中可能存在錯誤

未來的路

Noyb 要求挪威資料保護局命令 OpenAI 刪除關於Holmen的不準確資料,並確保 ChatGPT 不能生成關於其他人的類似誹謗內容。然而,考慮到大型語言模型的黑盒性質,實施這種保障措施帶來了重大技術挑戰。隨著AI系統越來越多地融入日常生活,這個案例凸顯了迫切需要更強大的監管框架和技術解決方案,以防止AI幻覺對個人造成現實世界的傷害。