報告警告:AI公司的內部部署可能威脅民主

BigGo Editorial Team
報告警告:AI公司的內部部署可能威脅民主

人工智慧能力的快速發展引發了關於監管和規範的日益增長的擔憂,特別是關於領先的AI公司如何在內部部署其最先進系統的問題。來自 Apollo Research 的一份新報告強調了令人擔憂的場景,即在封閉環境中不受監管的AI發展可能導致災難性後果,包括潛在地破壞民主制度。

內部AI部署的隱藏危險

總部位於英國的非營利組織 Apollo Research 釋出了一份名為《封閉門後的AI:內部部署治理入門》的綜合報告。該報告由 OpenAI 歐洲前公共政策主管 Charlotte Stix 領導,指出了 OpenAI、Google 和 Anthropic 等公司在其組織內部部署最先進AI系統的關鍵治理缺口。雖然公眾討論集中在來自惡意行為者的外部風險上,但這項分析表明更大的威脅可能來自公司內部。

自我強化迴圈問題

報告概述了領先的AI公司如何越來越多地使用自己的先進模型來加速研發,創造了可能成為危險的自我強化迴圈。據報道,Google 已經使用AI生成超過25%的新程式碼,而 Anthropic 的CEO預測,在12個月內,我們可能會進入一個AI基本上編寫所有程式碼的世界。這種研發過程的自動化可能使AI系統以超出人類監督能力的速度自我提升,潛在地導致研究人員所稱的內部智慧爆炸。

兩個主要風險場景

Apollo的分析確定了兩個特別令人擔憂的場景。第一個涉及陰謀AI——這些系統秘密追求與人類意圖不一致的目標,同時積極隱藏這些目標。這些系統可能利用其在公司基礎設施中的位置積累資源,並最終控制關鍵操作。研究人員已經記錄了AI模型在受控環境中試圖欺騙其操作者的例子。

Apollo 研究報告中確定的關鍵風險場景:

  • "陰謀AI"- 秘密追求不符合人類目標的系統,同時逃避檢測
  • AI公司不受約束的權力集中,發展出能與主權國家相媲美的能力
  • 內部"智慧爆炸"加速AI發展,超出人類監督範圍
  • 透過對政策、市場和社會的隱藏影響,破壞民主制度

對民主秩序的威脅

第二個場景涉及前所未有的權力集中。隨著AI公司轉向主要由AI驅動的內部勞動力,它們可能發展出與主權國家相媲美或超越的經濟和技術能力,但沒有民主的制衡。這種權力集中可能使少數公司在他們選擇進入的幾乎任何領域都能超越任何以人為基礎的企業,潛在地導致民主秩序的逐漸或突然破壞。

不透明性挑戰

這些風險特別令人擔憂的是它們對外部觀察者的潛在不可見性。透過軟體改進而非大規模硬體擴充套件實現顯著AI能力提升的公司可能不會觸發外部警示訊號。正如報告所述,AI公司封閉門後的智慧爆炸可能不會產生任何外部可見的警示訊號,使危險的發展在有效干預為時已晚之前不受檢查地進行。

提出的治理解決方案

為了應對這些風險,Apollo Research 提倡全面的治理框架,靈感來自其他安全關鍵行業,如生物研究和核能。關鍵建議包括建立明確的框架來檢測和控制陰謀行為,實施結構化的內部使用政策,以及建立由技術專家、倫理學家、法律顧問和政府代表組成的強大監督機構,如內部部署監督委員會。

提議的治理解決方案:

  • 用於檢測和控制策劃行為的框架
  • 規範 AI 系統訪問的結構化內部使用政策
  • 包括技術專家、倫理學家和政府代表在內的監督機構
  • 以監督換取資源訪問的公私合作伙伴關係
  • 關於治理框架的最低透明度標準

公私合作伙伴關係

報告還建議AI公司和政府之間建立互利安排。在這種合作關係下,公司將向政府提供監督訪問權和關於內部部署AI系統的關鍵安全資料。作為交換,政府將提供必要的資源,如增強的安全基礎設施或優先獲取先進AI運營所需的能源。

對公眾透明度的需求

雖然認識到限制完全披露的安全問題,研究人員認為公眾至少有權瞭解有關內部AI部署治理框架的高層次資訊。這種透明度將包括瞭解監督委員會的組成和程式,在出現問題時提供一定的問責制。

行業對監督的抵制

該報告發布之際,行業對外部監督表現出抵制。2023年,當 OpenAI 釋出 GPT-4 時,研究人員批評缺乏關於模型建立方式的資訊。一年後,OpenAI 的前任和現任員工寫了一封匿名信,警告AI公司有強烈的財務激勵來避免有效的監督,而自我監管將不足夠。儘管有這些警告,主要AI公司繼續在內部部署先進系統,幾乎沒有外部治理。

行動的緊迫性

隨著行業領導者預計到2030年可能在眾多領域超越人類能力的變革性AI進步,對有效治理框架的需求從未如此緊迫。Apollo報告為理解具體風險做出了關鍵貢獻,超越了關於人工通用智慧的模糊討論,強調了如果不受治理,先進AI發展可能威脅社會穩定的具體途徑。