Microsoft 的 AI 助手被發現洩露了本應保密的資訊,引發了全球開發者的嚴重安全擔憂。安全研究人員發現 Microsoft Copilot 能夠訪問並揭示被設定為私有的 GitHub 倉庫內容,可能會暴露敏感的企業資料和憑證。
安全漏洞的發現
專注於 AI 相關威脅的網路安全公司 Lasso 的研究人員發現了 Microsoft Copilot 的一個重大漏洞。該團隊發現 Copilot 可以訪問他們自己的一個已設為私有的 GitHub 倉庫。這個倉庫之前曾短暫地設為公開,然後又被切換回私有狀態,但這短暫的時間視窗足以讓 Microsoft 的 Bing 搜尋引擎索引並快取其內容。即使在倉庫被正確設定為私有後,當用戶提出適當的問題時,Copilot 仍能繼續訪問並揭示這些本應私密的資訊。
暴露的規模
在初步發現之後,Lasso 進行了更廣泛的調查,結果令人震驚。該安全公司確認了超過 20,000 個在 2024 年被設定為私有但仍可透過 Microsoft Copilot 訪問的 GitHub 倉庫。這一問題影響了約 16,000 個組織,包括 IBM、Google、PayPal、Tencent 和 Microsoft 自身等主要科技公司。這一安全問題的範圍相當廣泛,可能會危及整個科技行業的智慧財產權、企業資料和安全憑證。
Lasso 研究的主要發現:
- 超過 20,000 個私人 GitHub 倉庫可透過 Copilot 訪問
- 約 16,000 個組織受到影響
- 受影響的主要科技公司包括 IBM、Google、PayPal、Tencent、Microsoft
- 該漏洞於 2024 年 11 月報告給 Microsoft
- Microsoft 將此問題歸類為"低嚴重性"
![]() |
---|
互聯技術突顯了由於人工智慧安全漏洞導致的私人資料在各組織間大規模暴露的情況 |
面臨風險的敏感資訊
被暴露的倉庫可能包含高度敏感的資訊,這些資訊可能被惡意行為者利用。根據 Lasso 的調查結果,網路犯罪分子可能會操縱 Copilot 揭示諸如訪問金鑰、安全令牌和專有程式碼等機密資訊。該安全公司建議受影響的組織立即採取行動,輪換或撤銷任何可能被洩露的安全憑證,以減輕此次暴露可能造成的損害。
Microsoft 的回應
當 Lasso 在 2024 年 11 月向 Microsoft 報告這一漏洞時,該公司的回應出人意料地輕描淡寫。Microsoft 將此問題歸類為低嚴重性,並將快取行為描述為可接受的。雖然 Microsoft 在 2024 年 12 月從 Bing 中刪除了與受影響資料相關的快取搜尋結果,但 Lasso 警告說,Copilot 仍在其 AI 模型中保留這些資料,這意味著透過適當的提示,這些資訊仍然可能被訪問到。
對 AI 安全的更廣泛影響
這一事件凸顯了人們對 AI 系統如何訓練以及它們保留哪些資訊的日益關注。隨著 AI 聊天機器人和助手不斷掃描網際網路以獲取訓練資料,它們可能會捕獲並存儲那些只是暫時公開或從未打算廣泛傳播的資訊。圍繞這種資料收集和保留缺乏監管,造成了重大安全風險,特別是在處理敏感的企業資訊或個人資料時。
開發者的預防措施
鑑於這一發現,使用 GitHub 的開發者和組織應該審查其倉庫安全實踐。即使是敏感倉庫的臨時公開暴露也可能導致長期安全風險,因為 AI 系統會索引並保留這些資訊。在由 AI 驅動的開發環境中,定期輪換安全憑證、謹慎管理倉庫可見性設定以及審計可能暴露的資訊正成為必不可少的做法。