科技社群對於 ChatGPT 是否配得上「AI」標籤產生分歧,智慧辯論持續升溫

BigGo 社群部
科技社群對於 ChatGPT 是否配得上「AI」標籤產生分歧,智慧辯論持續升溫

科技社群正就像 ChatGPT 這樣的系統是否應該被稱為人工智慧展開激烈辯論。這場討論在批評聲浪中愈演愈烈,批評者認為這些系統只不過是精密的文字產生器,而非真正的智慧機器。

廢話產生器論點

批評者認為像 ChatGPT 這樣的大型語言模型(LLMs)實際上並不理解它們所產生的內容。相反地,它們執行機率搜尋,根據訓練資料中的模式找出最可能的下一個詞彙。這個過程類似於一個進階搜尋引擎,在不理解意義的情況下預測文字。令人擔憂的是,將這些系統稱為 AI 會誤導人們過度信任它們。

一位社群成員解釋說,LLMs 無法像人類一樣想像解決方案,並引用了 Einstein 的名言,即想像力比知識更重要。與人類解決問題的方式不同,這些系統完全依賴現有的資料模式,而非真正的推理或創造力。

反對稱呼 ChatGPT 為「AI」的主要論點:

  • 執行機率性文本預測而非理解
  • 無法理解其輸出內容的意義
  • 完全依賴現有訓練數據模式
  • 缺乏想像力或真正的推理能力
  • 以「對真相漠不關心」的方式運作

AI 效應現象

支持者反駁說,這種批評代表了典型的移動球門柱現象。他們指出 AI 效應——一種模式,即電腦掌握的任務突然不再被視為人工智慧的例子。這種現象在整個計算歷史中反覆出現,從下棋程式到語音識別系統皆是如此。

這場辯論反映了關於什麼構成智慧本身的更深層問題。有些人認為,專注於 LLMs 是否真正智慧完全錯失了重點,將其比作辯論熱狗是否為三明治——在技術上有趣但實際上無關緊要。

支持 ChatGPT 為人工智慧的關鍵論點:

  • 展現了「 AI 效應」- 當電腦達成新能力時不斷移動標準
  • 無論內部機制如何,都能產生看似智慧的行為
  • 與人類認知比較可能不公平,因為我們並未完全理解意識
  • 實用性比哲學定義更重要
  • 在較新的模型中顯示出推理和自我意識的跡象

實用與哲學關切

許多使用者發現自己在哲學關切和實際需求之間左右為難。雖然有些人承認當前 AI 系統的限制,但他們也認識到這些工具在日常工作中的實用性。現實是,無論這些工具是否符合嚴格的智慧定義,它們已成為許多專業人士不可或缺的工具。

「如果我不使用 ChatGPT ,無論它是開源軟體還是符合他對智慧的定義,與就業市場上的競爭對手相比,我的工作效率會大幅降低。」

討論也涉及更廣泛的議題,如軟體自由和資料隱私,因為使用者無法在本地運行這些系統,必須依賴由公司控制的遠端伺服器。

人類比較問題

這場辯論最引人入勝的面向或許涉及將 AI 系統與人類認知進行比較。有些人認為,如果我們無法完全解釋人類智慧如何運作,就無法明確說 LLMs 的運作方式有所不同。其他人則堅持認為,統計模式匹配與真正理解之間存在明顯差異,即使我們無法精確測量意識或意義。

這種哲學分歧持續影響著社會如何看待 AI 發展和監管。隨著這些系統變得更加精密,什麼構成真正智慧的問題對技術發展和公共政策都變得愈來愈重要。

這場辯論沒有解決的跡象,雙方都對智慧的本質、理解以及人工系統在人類社會中的未來提出了令人信服的論點。

參考資料:Reasons not to use ChatGPT