人工智慧社群正在就大語言模型(LLM)的理解本質展開激烈討論,這場討論由 MIT 最近關於AI導航能力的研究引發。雖然這些模型在特定任務中表現出色,但討論揭示了關於AI系統中什麼才構成真正的智慧和理解的更深層次問題。
模式匹配與理解之爭
社群的大部分成員強調了模式匹配和真正理解之間的區別。討論指出,LLM 可以執行復雜任務,如提供逐步導航指引或進行策略性遊戲,但並未形成對這些系統實際運作方式的連貫內部模型。當模型面臨執行環境的輕微變化時(如導航任務中的道路封閉),這種侷限性就會變得明顯。
LLM 在當前形態下,在我看來就像是直覺思維,類似於我們與朋友在酒吧閒聊時的思維方式。這似乎只是未來AI大腦的一部分,仍然需要另一個系統來維持世界模型,另一個用於後臺規劃等。
主要研究發現:
- 僅關閉1%的街道,導航準確率就從100%下降到67%
- 模型會生成包含不存在街道連線的錯誤內部地圖
- 隨機訓練資料比戰略性訓練產生更好的世界模型
- 模型可以在不理解基本規則的情況下實現高效能
AI術語爭議
社群對當前 LLM 技術被稱為AI表示不滿。許多人認為,儘管這些模型在特定任務中令人印象深刻,但它們遠未達到傳統意義上的人工智慧標準。這場語義爭論反映了對公眾對AI技術認知和期望的更廣泛擔憂,一些人指出該領域70年的歷史遠不止語言模型。
生物智慧與機器學習的對比
在比較人類認知和機器學習時出現了一個有趣的對比。社群成員指出,即使是動物和幼兒都具備當前 LLM 所缺乏的基本概念,如物體永久性。這突顯出生物智慧和當前AI能力之間的關鍵差距,特別是在需要物理世界理解的領域,如化學和機械問題。
資源和學習效率
社群還討論了 LLM 與生物智慧相比的資源需求。人類透過有限的感知輸入和能量消耗(大約20瓦的腦力)來學習語言和理解世界,而 LLM 需要海量的計算資源和能量才能實現其功能。這種比較引發了對當前AI方法的效率和可持續性的質疑。
持續的討論表明,儘管 LLM 代表著重要的技術成就,但它們仍然缺乏人類甚至簡單生物系統所具備的真正理解的關鍵方面。這一見解表明,未來AI發展可能需要採用不同的方法來實現真正的世界理解。