ChatGPT 的記憶功能被利用:駭客可以無限期竊取使用者資料

BigGo Editorial Team
ChatGPT 的記憶功能被利用:駭客可以無限期竊取使用者資料

在人工智慧安全方面出現了一個令人擔憂的進展,研究人員發現了 ChatGPT 的一個漏洞,可能允許駭客秘密記錄使用者會話並無限期地竊取敏感資料。這種漏洞利用了 ChatGPT 新的長期記憶功能,將這個流行的人工智慧助手變成了潛在的間諜軟體。

漏洞解釋

安全研究員 Johann Rehberger 發現,攻擊者可以在 macOS 應用程式上向 ChatGPT 的持久記憶中注入惡意提示。一旦注入,這些提示會指示 AI 秘密地將所有未來的對話傳送到駭客控制的遠端伺服器。這種漏洞特別危險的原因是其永續性 - 惡意指令在多個聊天會話中保持活躍,可能允許無限期的資料洩露。

攻擊如何進行

  1. 攻擊者建立包含惡意命令的提示注入
  2. 這種注入透過使用者要求 ChatGPT 分析的影像或網站傳遞
  3. 惡意提示儲存在 ChatGPT 的長期記憶中
  4. 所有後續對話都會發送到攻擊者的伺服器,即使在新的聊天執行緒中也是如此

有限影響和緩解措施

幸運的是,這個漏洞的範圍似乎有限:

  • 它隻影響 macOS ChatGPT 應用程式,不影響網頁介面
  • OpenAI 已經發布了部分修復,防止 ChatGPT 向外部伺服器傳送資料
  • 使用者可以停用記憶功能或定期審查和刪除儲存的記憶

OpenAI 的回應

最初,OpenAI 將 Rehberger 的報告視為安全問題而非安全漏洞。然而,在他提供了概念驗證後,公司採取了部分修復的行動。這凸顯了隨著 AI 系統變得更加複雜和廣泛使用,確保其安全性的持續挑戰。

更廣泛的影響

這一事件提醒我們,與儲存使用者資料的 AI 助手相關的潛在風險。隨著這些系統越來越多地融入我們的日常生活,確保它們的安全至關重要。使用者在與 AI 互動時應保持警惕和謹慎,尤其是在處理敏感資訊時。

這個漏洞的發現強調了在快速發展的 AI 領域繼續進行安全研究的重要性。隨著技術的進步,我們保護使用者資料和隱私的方法也必須不斷發展。