人工智慧與法律責任的交叉領域為人工智慧公司,特別是 OpenAI 帶來了前所未有的挑戰。最近關於 ChatGPT 行為的發現和持續的法律紛爭凸顯了人工智慧開發和部署領域的複雜性。
神秘的姓名遮蔽
人們發現 ChatGPT 在遇到某些特定姓名時會完全停止執行,這揭示了 OpenAI 內容過濾系統的一個有趣現象。這種特殊行為影響到多位著名人士,包括法律學者和公眾人物,展示了該人工智慧系統為防止潛在的虛假資訊和法律責任而設定的內建安全機制。
已知在 ChatGPT 中被遮蔽的名字:
- Brian Hood
- Jonathan Turley
- Jonathan Zittrain
- David Faber
- Guido Scorza
理解遮蔽的起源
這些基於姓名的遮蔽措施源於此前人工智慧產生幻覺導致的法律威脅事件。一個典型案例是澳大利亞市長 Brian Hood,在 ChatGPT 錯誤聲稱他因受賄入獄後,他威脅要對 OpenAI 採取法律行動。類似地,該系統還針對 Jonathan Turley 編造了虛假指控,甚至偽造了一篇關於騷擾醜聞的不存在的 Washington Post 文章。
安全隱患和漏洞
這些硬編碼的過濾器引發了新的安全擔憂。研究人員發現,攻擊者可能透過在影像中嵌入難以辨認字型的被遮蔽姓名,來破壞 ChatGPT 會話或阻止人工智慧處理某些網站內容。這個漏洞突顯了安全措施和系統可靠性之間的複雜平衡。
不斷升級的法律壓力
除了個人姓名相關的問題外,OpenAI 還面臨著更多的法律挑戰。加拿大媒體公司已經發起法律訴訟,要求每次版權侵犯賠償 C$20,000($14,239)。同時,OpenAI 前聯合創始人 Elon Musk 加強了對該公司及其執行長 Sam Altman 的批評,將 OpenAI 比作令市場癱瘓的蛇髮女妖,並將 Altman 稱為騙子山姆。
加拿大媒體公司尋求的法律賠償:每次侵權 C$20,000(14,239美元)
政治和監管影響
Musk 和 Altman 之間關係的惡化對 OpenAI 的未來產生了重大影響,特別是在監管領域。隨著 Musk 在即將上任的 Trump 政府中的影響力日益增長,以及他作為政府效率部門聯合負責人的地位,OpenAI 在應對政治環境時可能面臨更多審查和挑戰。