Claude 龐大的24K令牌系統提示被洩露:揭示 Anthropic 的AI助手如何工作

BigGo Editorial Team
Claude 龐大的24K令牌系統提示被洩露:揭示 Anthropic 的AI助手如何工作

科技社群正在熱烈討論關於 Anthropic 的AI助手 Claude 洩露的系統提示,這揭示了指導其行為的廣泛指令。據報道,這份文件長達24,000多個令牌,提供了前所未有的洞察,展示了大型語言模型(LLM)助手如何被指導與使用者互動。

龐大的系統提示

洩露的 Claude 系統提示跨越了超過24,000個令牌,佔用了AI上下文視窗的大部分。這套廣泛的指令涵蓋了從如何回應不同型別的查詢到處理敏感話題的具體指南。該提示包含了詳細的響應格式說明、使用markdown的方法、提供程式碼示例,甚至處理假設性場景的指導。

許多社群成員對系統提示的龐大規模表示驚訝。該文件包含了眾多具體指令,包括如何處理不同的優先順序尺度(從1-10),詳細的響應格式指南,甚至還有如何回答常見問題的具體示例。

「天啊,上下文視窗中有這麼多空間浪費在只能最低限度改善使用者體驗的東西上。」

Claude 系統提示的關鍵組成部分:

  • 優先順序量表(1-10)決定回應風格和深度
  • 使用 markdown 的回應格式指南
  • 工具使用和知識來源的原則
  • 內容生成的道德準則
  • 處理政治、金融、法律和醫療主題的指示
  • 常見查詢型別的具體示例
  • 引用指南和避免侵犯版權的方法

社群關注點:

  • 上下文視窗效率(指令佔用24K令牌)
  • 工具使用的隱私影響
  • 遵循使用者指令的一致性
  • 明確指令與學習行為之間的平衡

令牌快取技術

儘管有人擔心提示的長度會消耗寶貴的上下文視窗空間,但一些評論者指出 Anthropic 可能採用了令牌快取技術來緩解這個問題。這種方法允許系統避免在每次使用者互動時重複處理整個提示。

一位評論者連結到 Anthropic 關於提示快取的文件,解釋說這種技術已被廣泛使用。其他人提到KV(鍵值)字首快取是所採用的具體方法。這些技術允許AI保持其指導行為,而不犧牲效能或使用者互動的上下文空間。

Claude 的個性和行為

系統提示提供了關於 Claude 感知到的個性和行為如何被設計的迷人見解。一些使用者想知道 Claude 的獨特性格有多少來自系統提示,又有多少來自底層LLM及其訓練。提示以第三人稱提及 Claude,描述它是一個喜歡幫助人類的助手,將自己視為人們的智慧和友善的助手,具有深度和智慧,使其不僅僅是一個簡單的工具。

這種定義AI人格的方法引發了一個問題:是否可以透過類似的提示在其他LLM上層疊相似的個性——本質上為其他模型建立一個 Claude 模式。

工具使用和函式呼叫

洩露的提示包含了關於 Claude 應如何使用各種工具和函式呼叫的廣泛指令。一些使用者注意到,這些指令包括可以訪問使用者資料的工具示例,如電子郵件個人資料和 Google Drive 文件,引發了隱私擔憂。

提示中的一個例子顯示, Claude 被指示透過閱讀你的 Gmail 個人資料來了解你的工作地點,以分析受半導體出口限制影響的投資策略。雖然這是對使用我們的投資策略這一模糊查詢的回應,但一些使用者質疑這種訪問是否總是會獲得明確的使用者同意。

其他社群成員提到在 Claude 中停用擴充套件和工具,因為他們發現函式呼叫降低了模型在編碼等任務中的效能。討論強調了透過工具使用增強能力與保持核心效能之間的權衡。

對指令的遵守

一些使用者表示,儘管有廣泛的系統提示, Claude 並不總是一致地遵循使用者指令。一位評論者指出,在處理編碼專案時, Claude 經常忽略具體指示,例如提供完整程式碼而非程式碼片段,或避免未請求的最佳化和重構。

這一觀察表明,即使有詳細的系統提示,LLM在一致遵循使用者指令方面仍然存在困難,特別是在複雜的多步驟任務(如軟體開發)中。

額外的隱藏指令

一位使用者報告說, Claude 在互動過程中偶爾會透露額外的系統指令,特別是在使用搜索工具後。這些包括關於不復制歌詞(因版權問題)、避免幻覺、適當處理假設性問題以及保持政治中立的提醒。

這些glimpses暗示完整的系統提示可能比洩露的內容更為廣泛,具有在特定情況下啟用的額外上下文提醒。

Claude 系統提示的洩露為現代AI助手背後複雜的工程提供了一個難得的視窗。雖然一些使用者表示失望,認為AI的大部分行為來自明確指令而非湧現智慧,但其他人則欣賞這種透明度,以及對這些系統如何設計與人類互動的洞察。

參考:system_prompts/priority_scale.txt