Apple 最受期待的人工智慧功能在最近的更新中明顯缺席,讓使用者疑惑為什麼承諾的個性化 Siri 升級仍然遙遙無期。在今年的全球開發者大會之後,Apple 高管們終於闡明瞭技術挑戰,這些挑戰迫使公司進行完整的架構重構,並將釋出時間推遲了整整一年。
延遲背後的技術現實
Apple 軟體工程主管 Craig Federighi 在 WWDC 後接受 Tom's Guide 採訪時透露,公司構建更個性化 Siri 的初始方法根本不夠好。Apple 開發的第一代架構被證明過於有限,無法滿足公司的質量標準,迫使工程師們重新開始。Apple 沒有釋出一個不合格的產品,而是在2025年春季做出了艱難的決定,完全轉向一直在規劃階段的第二代架構。
這種架構轉變不僅僅是一個小調整。Federighi 承認,即使有了新的基礎,Apple 仍在繼續完善這些 Siri 功能,以確保它們滿足使用者期望。重新開始的決定本質上重置了開發時間表,這解釋了為什麼看似即將到來的功能從 Apple 的近期路線圖中消失了。
關鍵時間線資訊
事件 | 日期 | 詳情 |
---|---|---|
原始架構開發 | 2025年春季之前 | 第一代架構被認為不夠充分 |
架構轉向決定 | 2025年春季 | 完全轉向第二代架構 |
預期功能釋出 | 2026年春季 | 可能作為 iOS 26.4 更新的一部分 |
總延遲時長 | 約1年 | 相較於原本預期的時間線 |
向實用 AI 的戰略轉變
在等待 Siri 轉型的同時,Apple 採用了業界觀察者稱之為金髮姑娘的人工智慧方法。公司沒有追求可能令人失望的過於雄心勃勃的功能,也沒有追求幾乎沒有價值的過於基礎的工具,而是專注於使用者可以立即欣賞的實用、日常 AI 增強功能。
Visual Intelligence 的最新更新體現了這一策略。該功能現在允許 Apple Intelligence 協助處理截圖、網頁搜尋和 ChatGPT 整合,直接響應使用者對類似 Android Circle to Search 功能的需求。類似地,新的 Hold Assist 功能使用 AI 檢測使用者在通話中被置於等待狀態,維持他們在佇列中的位置,並在通話恢復時提醒雙方。
Apple 當前的 AI 戰略特色
實用 AI 實施方案:
- 整合 ChatGPT 的視覺智慧功能
- 用於電話通話管理的 Hold Assist 功能
- Messages 和 FaceTime 中的即時翻譯
- 開發者可訪問裝置端 AI 模型
- Xcode 中的 AI 程式設計輔助
合作伙伴策略:
- ChatGPT 整合以增強功能
- 為開發者提供外部 AI 模型連線
- 專注於硬體軟體整合而非 AI 研究
從合作伙伴關係和開發者參與中學習
Apple 的方法已經演變為擁抱合作,而不是試圖在內部構建每一個 AI 能力。公司現在在其生態系統內整合強大的外部工具,如 ChatGPT,特別是用於 Visual Intelligence 更新和改進的 Image Playground 功能。這種合作伙伴關係方法允許 Apple 利用一流的 AI 能力,同時專注於自己最擅長的:無縫的硬體和軟體整合。
公司還首次向開發者開放了其裝置端 AI 模型,認識到其才華橫溢的開發者社群可以加速整個 Apple Intelligence 平臺的創新。此外,開發者現在可以在 Xcode 內連線 AI 模型以獲得編碼協助,儘管 Apple 的實現與競爭對手提供的原生 AI 編碼助手有所不同。
![]() |
---|
這張圖片捕捉了一個可能專注於技術創新的討論場景,與 Apple 的 AI 發展策略相關 |
時間表和法律影響
營銷主管 Greg Joswiak 確認,Apple 提到明年推出這些功能具體指的是2026年,增強的 Siri 功能可能會作為 iOS 26.4 的一部分在2026年春季到來。這種延長的延遲已經在美國和加拿大引發了多起集體訴訟,因為專門為 AI 功能升級到配備 A18 晶片裝置的消費者發現自己等待的時間比預期的要長。
這種延遲強調了 Apple 對質量而非速度的承諾,即使面臨競爭壓力和法律挑戰。透過優先考慮強大的架構基礎而不是快速釋出,Apple 似乎在押注延遲但優秀的產品最終會比匆忙將不完整功能推向市場更好地服務使用者。