Meta 的人工智慧資料計劃在歐洲遇阻:隱私疑慮導致推出延遲
Meta(Facebook 和 Instagram 的母公司)在歐洲使用使用者資料進行人工智慧訓練的計劃遇到了重大障礙。由於日益增加的隱私疑慮和監管障礙,這家科技巨頭被迫延遲在該地區推出其人工智慧服務。
具爭議的資料計劃
Meta 最近推出了一項新的隱私政策,允許使用自 2007 年以來收集的公開和非公開使用者資料來訓練其人工智慧模型。該公司辯稱,根據現行隱私法規,這種做法是允許的,並引用「合法利益」作為在歐洲地區和英國處理資料的法律依據。
然而,這一舉動很快遭到了反對:
- 隱私倡議組織 Noyb 在 11 個歐洲國家提出法律投訴
- 要求資料保護機構啟動緊急程式以防止政策變更
- 人們對資料使用範圍過廣以及缺乏人工智慧技術用途的具體資訊表示擔憂
監管機構的阻力
作為 Meta 在歐洲的主要監管機構,愛爾蘭資料保護委員會與其他歐洲資料保護機構一起要求延遲人工智慧訓練計劃。這迫使 Meta 取消在該地區收集使用者資料用於人工智慧訓練的計劃。
Meta 對這一決定表示失望,稱:
我們對愛爾蘭資料保護委員會(我們的主要監管機構)代表歐洲資料保護機構要求延遲使用 Facebook 和 Instagram 上成年人分享的公開內容來訓練我們的大型語言模型(LLMs)感到失望。
該公司認為,這一延遲將導致歐洲使用者體驗二流服務,並阻礙了該地區人工智慧開發的創新和競爭。
對整個行業的影響
Meta 的情況凸顯了科技公司在平衡人工智慧發展與資料隱私問題時面臨的持續挑戰:
- 資料需求:人工智慧模型需要大量資料進行訓練,這給公司獲取和使用使用者資訊帶來了壓力。
- 監管環境:歐盟嚴格的資料保護法規(如 GDPR)為人工智慧開發帶來了額外的障礙,相比其他地區更為嚴格。
- 競爭劣勢:Meta 認為這些限制可能會使歐洲的人工智慧發展落後於其他國家。
展望未來
儘管遇到挫折,Meta 仍然致力於將其人工智慧服務引入歐洲。該公司強調了其透明的方法,以及使用本地資料建立具有文化相關性的人工智慧模型的必要性。
隨著人工智慧領域的不斷發展,在創新和隱私保護之間找到平衡將繼續成為科技公司和監管機構面臨的關鍵挑戰。Meta 歐洲人工智慧計劃的結果可能會為該地區未來的人工智慧發展和資料使用設立重要先例。