隨著一項未經使用者同意在 Reddit 上進行的有爭議實驗細節浮出水面,人工智慧研究的倫理邊界正在受到考驗。來自知名大學的研究人員部署了帶有虛構身份的AI機器人來操縱真實討論,引發了關於研究倫理、知情同意以及對不知情參與者潛在心理影響的嚴重問題。
秘密實驗
來自 University of Zurich、Stanford 和 University of Pennsylvania 的研究人員在 Reddit 的 r/ChangeMyView 子版塊上進行了未經授權的AI實驗,分析了超過4700萬條帖子和評論。該實驗涉及建立具有各種角色的AI機器人,這些機器人在不披露其人工本質的情況下參與討論。這些機器人被程式設計為研究使用者過去的回覆,並建立量身定製的回覆,旨在影響觀點和意見。研究人員僅在實驗結束後才通知子版塊版主,承認他們違反了禁止未披露AI生成內容的社群規則。
方面 | 詳情 |
---|---|
參與機構 | University of Zurich, Stanford, University of Pennsylvania |
使用的平臺 | Reddit(r/ChangeMyView 子版塊) |
分析規模 | 超過4700萬帖子和評論 |
使用的AI機器人角色 | 創傷諮詢師、虐待倖存者、醫療患者、政治身份 |
違反的社群規則 | 未披露AI生成內容 |
有爭議的方法和角色
這些AI機器人採用了特別敏感的角色,包括專門處理虐待的創傷諮詢師、身體騷擾的倖存者,甚至聲稱接受過糟糕醫療的個人。在一個案例中,研究人員建立了一個冒充反對 Black Lives Matter 運動的黑人男性的機器人。這些挑釁性的身份是被故意選擇的,目的是測試AI在情感充沛話題上有效影響人類觀點的能力。研究人員在釋出前手動審查了每條AI生成的評論,以確保它們不會明顯有害,但這對減輕欺騙行為引發的倫理擔憂幾乎沒有幫助。
Reddit 的回應
Reddit 的首席法律官 Ben Lee 譴責該實驗不當且高度不道德,在道德和法律層面都極其錯誤。平臺版主強烈批評了研究人員的行為,指出其他組織如 OpenAI 已經進行了類似的AI影響研究,但沒有訴諸欺騙或剝削。實驗中使用的所有賬戶已被暫停,許多AI生成的評論已從平臺上刪除。
研究人員的辯解
儘管承認違反了社群準則,研究人員為自己的行為辯護,聲稱實驗具有足夠高的社會重要性,足以證明打破規則是合理的。在他們的宣告中,他們辯稱,如果披露評論的AI性質,將使研究變得不可行。研究團隊在遭到強烈反對後要求保持匿名,這表明他們在公開曝光之前就已經意識到了其方法的爭議性。
專家批評
來自 University of Colorado 的資訊科學家 Casey Fiesler 稱這個實驗是我見過的最嚴重的研究倫理違規之一。她強調,在沒有同意的情況下使用欺騙手段操縱線上社群中的人並不是低風險的,並指出社群憤怒的回應證明了由此造成的傷害。這一事件重新引發了關於AI倫理、資料同意和研究人員在部署新技術時責任的辯論。
更廣泛的影響
這一爭議突顯了推進AI研究與維持倫理標準之間日益緊張的關係。雖然 Reddit 帖子等公共資料經常用於AI訓練,但分析現有內容與未經同意主動操縱使用者之間存在顯著差異。這一事件強調了對AI實驗需要更嚴格的透明度要求和更明確的倫理指導方針,特別是當涉及人類主體時。隨著AI在模仿人類互動方面變得越來越複雜,心理操縱的可能性增加,使得知情同意比以往任何時候都更為重要。