人工智慧已經成為創新和操控的強大工具,正如 OpenAI 最新安全報告揭示的惡意行為者採用AI的陰暗面。這家 ChatGPT 背後的公司已經識別並瓦解了多個協調活動,其中國家支援的團體利用AI技術傳播宣傳、操縱公眾輿論,並在全球平臺上進行復雜的影響力行動。
國家支援的AI利用達到新高度
OpenAI 的《破壞AI的惡意使用:2025年6月》報告記錄了該公司在2025年前幾個月成功破壞了十個獨立的惡意活動。這些行動代表了威權政權如何將AI技術武器化用於地緣政治影響力的重大升級。這些活動針對從就業詐騙到旨在破壞民主程序並在目標國家制造分裂的複雜社會工程行動等各種目標。
按來源國分類的被破壞活動:
- China :4個活動(包括" Sneer Review "和" Uncle Spam ")
- Russia :多個活動(包括" Helgoland Bite ")
- Iran :多個活動
- North Korea :多個活動
- 總計被破壞:2025年前幾個月共10個活動
中國行動針對 Taiwan 和美國政治話語
被破壞的活動中有四個來自中國,展示了將AI生成內容與戰略虛假資訊相結合的複雜策略。Sneer Review 行動專門透過用AI生成的批評評論淹沒《Reversed Front》桌遊的評論來針對臺灣獨立。中國行為者隨後利用這些虛假評論建立文章,聲稱對這款描繪抵抗中國共產黨的遊戲存在廣泛反對。這種多層次方法展示了AI如何放大人為製造的爭議以實現政治目標。
俄羅斯行為者部署 ChatGPT 進行德國選舉干預
Helgoland Bite 活動揭示了俄羅斯透過AI生成的德語內容批評美國和 NATO 來影響德國政治的努力。俄羅斯特工不僅使用 ChatGPT 建立宣傳材料,還用來識別反對派活動人士和博主進行針對性攻擊。該活動的時機與德國2025年選舉週期相吻合,突顯了AI工具如何被武器化以同時干預多個國家的民主程序。
Uncle Spam 活動利用美國政治分歧
對美國受眾來說最令人擔憂的可能是,Uncle Spam 行動展示了中國行為者如何使用 ChatGPT 建立高度分裂性內容,旨在擴大美國的政治極化。該活動生成了在關稅等爭議話題上既支援又反對的社交媒體賬戶,同時還建立虛假的退伍軍人支援頁面來建立可信度。這種在分裂性問題的多個方面生成內容的方法代表了對如何透過AI生成的操控最大化社會不和的複雜理解。
先進策略包括績效評估和定向外聯
這些行動的複雜性超越了簡單的內容生成。中國宣傳人員建立了詳細的績效評估,記錄他們使用 ChatGPT 進行影響力行動的情況,將AI操控視為具有可衡量結果的專業企業。此外,這些行為者使用 OpenAI 的技術以虛假借口向記者、分析師和政治家傳送有針對性的電子郵件,試圖建立關係並透過AI增強的社會工程提取敏感資訊。
活動策略和目標:
- 就業詐騙和影響力操作
- 社交媒體操控和虛假賬戶建立
- 多語言翻譯和內容生成
- 針對記者、分析師和政治家的定向接觸
- AI 濫用的績效評估文件
- 跨平臺協調訊息傳播
不斷增長的威脅態勢跨越多個國家
OpenAI 情報和調查團隊的首席調查員 Ben Nimmo 強調,中國只是更廣泛威脅態勢的一部分。報告識別了來自俄羅斯、伊朗和朝鮮的類似惡意活動,表明AI驅動的影響力行動已成為威權政權數字戰爭武器庫中的標準工具。這種AI惡意用途的全球採用為技術公司和民主機構帶來了前所未有的挑戰。
具體活動詳情:
- Sneer Review:針對臺灣"Reversed Front"桌遊進行虛假負面評論攻擊
- Helgoland Bite: Russia 操作,為2025年 German 選舉制作德語反 US / NATO 內容
- Uncle Spam: China 操作,製作分裂性的 US 政治內容和虛假退伍軍人支援頁面
對線上資訊完整性的影響
OpenAI 的發現嚴厲提醒人們,線上內容的真實性不能再被假定。該公司的報告警告說,與線上爭議內容互動的個人可能在不知不覺中與旨在激發特定情緒反應的AI生成材料互動。這一現實從根本上挑戰了公民在數字時代如何消費和評估資訊,需要新水平的媒體素養和批判性思維技能來駕馭日益被操控的資訊環境。