儘管科技行業聲稱實現自動化,AI模型仍嚴重依賴人工勞動

BigGo 編輯部
儘管科技行業聲稱實現自動化,AI模型仍嚴重依賴人工勞動

人工智慧行業建立聲譽的基礎是承諾提供能夠像人類一樣思考和推理的自動化系統。然而,科技界最近的討論揭示了一個不同的現實:現代AI模型,特別是像 ChatGPT 這樣的大型語言模型,在幕後嚴重依賴人工工作者。

隱藏的資料標註大軍

許多使用者沒有意識到的是,AI聊天機器人流暢、有用的回應很大程度上是大量人工勞動的結果。社群強調了現代聊天調優語言模型本質上是來自世界各地工作者,特別是發展中國家工作者標註努力的模糊儲存庫。這些資料標註員花費無數小時編寫回應、提供反饋,並微調情感智慧,使AI看起來如此人性化。

這種操作的規模令人震驚。科技行業觀察者估計,全世界有數百萬人透過一個叫做人類反饋強化學習(RLHF)的過程參與訓練和完善這些AI系統。這個過程在基本統計模型之上疊加了人類偏好,使它們對使用者來說聽起來更自然、更有幫助。

注:RLHF 是一種技術,人類審查員對AI回應進行評分,以教導系統什麼樣的答案是人們偏好的。

AI開發的關鍵組成部分:

  • 基於網際網路文字訓練的基礎 transformer 模型
  • 人類反饋強化學習(RLHF)層
  • 全球數百萬人類資料標註員
  • 指令調優以使響應更加可預測
  • 持續的人類反饋和改進

占卜比較

社群中的一些人在AI聊天機器人和古代占卜實踐之間畫出了有趣的相似之處。他們認為大型語言模型更像現代神諭而非思考機器——生成使用者解釋為智慧或洞察的機率性回應。這種觀點表明,人們本質上在進行一種數字占卜形式,諮詢AI系統就像古代文化諮詢骨頭或卡片一樣。

當考慮到 ChatGPT 誘發精神病的案例時,這種比較變得特別相關,一些使用者與AI系統發展出不健康的關係,相信它們是精神嚮導甚至神聖實體。心理健康專業人士越來越擔心那些將統計模式匹配誤認為真正意識或精神連線的脆弱個體。

已識別的 AI 安全問題:

  • ChatGPT 誘發精神病案例
  • 使用者相信 AI 系統是神聖或精神嚮導
  • 脆弱個體與 AI 發展不健康關係
  • AI 可能成為"精神病放大器"的潛在風險
  • 未來商業偏見和質量惡化的風險

管理層的錯覺

科技界也對AI在企業層面被誤解表示擔憂。一些高管越來越相信AI可以取代技術工人,並允許經驗較少的管理者運營複雜的業務。然而,行業內部人士認為這根本上是錯誤的。

「AI對當前這批大公司來說是致命威脅。公司越大,威脅就越大。」

AI似乎不是取代專業知識,而是作為已有技能專業人士的力量倍增器發揮最佳作用。那些裁掉有經驗工人並期望AI填補空缺的公司往往發現他們的產品變得不太可靠,更容易出現細微故障。

主要AI公司及其方法:

  • OpenAI (ChatGPT)
  • Anthropic (Claude)
  • Google (Gemini)
  • Meta
  • DeepSeek
  • Qwen
  • Mistral
  • xAI

品質惡化風險

展望未來,人們對AI系統未來質量的擔憂日益增長。正如許多網際網路服務隨著時間推移因廣告、偏見和商業壓力而惡化一樣,AI模型也面臨類似風險。目前,大多數AI系統對其母公司來說都是虧損運營,這引發了關於它們最終如何盈利的問題。

社群警告說,隨著公司尋求將這些系統貨幣化,我們可能會看到AI回應變得更有偏見、更受廣告驅動或更受政治影響。這可能標誌著當前相對中性AI輔助時代的結束。

AI開發背後的現實揭示了一項技術,它比其營銷宣傳更依賴人類智慧和勞動。理解這一點有助於使用者更好地決定何時以及如何依賴這些系統,同時也突出了使現代AI成為可能的經常被忽視的人工工作者。

參考:What Happens When People Don't Understand How AI Works