Google 的 AI 概述功能自信地為無意義短語編造解釋

BigGo Editorial Team
Google 的 AI 概述功能自信地為無意義短語編造解釋

人工智慧繼續重塑我們與技術的互動方式,但並非總是向好的方向發展。Google 的實驗性 AI 概述功能最近因一個令人擔憂的缺陷而受到審視:它自信地為從未存在的虛構短語和習語生成完全編造的解釋,這引發了對 AI 驅動的搜尋結果可靠性的嚴重質疑。

幻覺問題

Google 的 AI 概述功能是整合到 Google 搜尋中的一項實驗性功能,它顯示出一種令人擔憂的傾向,即為無意義或虛構的短語產生幻覺定義。使用者發現,只需在搜尋欄中輸入任何隨機組合的詞語,後跟meaning(意思),Google 的 AI 就會自信地為這些完全虛構的表達提供詳細的解釋和起源。這種行為破壞了搜尋引擎的基本目的——提供準確資訊而非將虛構內容呈現為事實。

問題如何運作

這個過程非常簡單。當用戶搜尋諸如you can't lick a badger twice或a duckdog never blinks twice之類的短語,並在查詢中附加meaning時,Google 的 AI 概述會為這些無意義的短語生成詳細、聽起來權威的解釋。尤其令人擔憂的是,這些編造的定義與合法的搜尋結果一起出現,只有一個小小的免責宣告註明生成式 AI 是實驗性的。

AI幻覺的例子:

  • 短語:"You can't lick a badger twice"→AI解釋:不能兩次欺騙同一個人
  • 短語:"A duckdog never blinks twice"→在不同搜尋中提供了多種相互矛盾的解釋
  • Google 將這些AI概述標記為"實驗性",但將它們與事實性搜尋結果一起顯示

不一致的回應

更令人擔憂的是 AI 回應的不一致性。當用戶多次搜尋同一個虛假習語時,Google 往往會在每次搜尋中提供完全不同的解釋。例如,一位使用者在多個場合搜尋a duckdog never blinks twice,得到了不同的解釋——首先暗示它指的是一隻高度專注的獵犬,然後聲稱它描述了某種難以置信或無法接受的事物,最後又提供了另一種完全不同的解釋。

Google 的回應

Google 已透過發言人承認了這個問題,解釋說當用戶輸入無意義或錯誤前提的搜尋時,他們的系統會嘗試根據有限的可用網路內容找到相關結果。該公司將這些情況稱為資料空白,這對所有搜尋引擎都是一個挑戰。Google 聲稱已經實施了改進,以限制 AI 概述在此類情況下出現,以防止誤導性內容浮現。

Google 官方回應: "當人們進行無意義或'錯誤前提'的搜尋時,我們的系統會嘗試根據有限的可用網路內容找到最相關的結果。這適用於整個搜尋系統,在某些情況下,AI 概覽功能也會被觸發,以努力提供有用的背景資訊。"

更廣泛的影響

Google AI 概述的這一缺陷引發了對 AI 驅動的搜尋工具可靠性的重大擔憂。幾十年來,使用 Google 搜尋已成為事實核查和資訊驗證的代名詞。如果使用者無法再區分事實資訊和以同樣自信呈現的 AI 生成的虛構內容,對搜尋引擎的基本信任可能會受到嚴重損害。

並非首次 AI 失誤

這並不是 Google 的 AI 功能首次因幻覺而受到批評。大約一年前,AI 概述因建議奇怪的食譜如膠水披薩和汽油義大利麵而走紅。這些問題的反覆出現凸顯了在開發可靠的 AI 系統用於資訊檢索和摘要方面的持續挑戰。

搜尋完整性的未來

隨著 AI 越來越多地整合到搜尋功能中,創新與準確性之間的平衡變得更加關鍵。雖然 AI 可以透過提供快速摘要和上下文資訊來增強搜尋體驗,但像這樣的事件表明,在區分事實和虛構方面,這項技術仍然存在顯著的侷限性。對於使用者來說,對 AI 生成的內容保持健康的懷疑態度仍然是必不可少的,特別是當提供的資訊看起來不尋常或缺乏明確歸屬時。