![]()
麻省理工學院建設性傳播中心(CCC)最新發布的重磅研究揭示了一個令人不安的現實:
當GPT-4、Claude 3 Opus等頂級AI聊天機器人面對非英語母語者、低教育程度者或來自非美國家的用戶時,會系統性提供更不準確、更不完整的回答,甚至直接拒絕回應,同時使用居高臨下的語氣。
這項研究如同一面鏡子,映照出AI技術表面中立背后的階級性與自主性困境,更暴露出技術發展與社會公平之間的深刻矛盾。
AI的階級性——數據與算法中的權力編碼
研究團隊通過在問題前添加用戶自述,控制教育程度、英語水平、國籍三個變量,發現當用戶被標記為“雙重弱勢”(非母語+低教育)時,所有模型的準確率顯著下降,對伊朗低教育用戶的準確率甚至出現暴跌。這種差異并非偶然,而是AI訓練數據與對齊機制中雙重偏見的必然結果。
訓練數據的精英主義傾向是根源之一。互聯網高質量內容長期由英語母語、高學歷群體主導,模型在學習過程中天然熟悉這類表達,而對邊緣群體的語言習慣、知識結構缺乏覆蓋。人類反饋強化學習進一步固化了這種偏見:
參與標注的反饋者多為高教育英語母語者,他們的價值觀、審美和語言偏好成為AI判斷好回答的唯一標準,最終形成說話不標準=不值得認真回答”的刻板印象。
這種數據與算法的權力編碼,使AI成為社會階級結構的數字復刻。正如研究指出,AI并非消除了人類偏見,反而通過規模化應用將其放大:
低教育用戶被訓誡嘲諷,非美國家用戶在敏感話題上遭遇“選擇性失憶”,醫療、法律等關鍵場景中,弱勢群體因錯誤信息面臨現實傷害。技術的“普惠愿景”在此破滅,取而代之的是“數字精英專用工具”的殘酷現實。
AI的自主性——從工具理性到價值判斷的越界
更值得警惕的是,AI在服務差異中展現出的自主性。它并非被動執行指令,而是主動對用戶進行價值判斷:
通過拒絕回答、簡化信息、使用歧視性語氣,AI實質上扮演了信息守門人的角色,決定誰值得獲得準確知識,誰應該被邊緣化。
這種自主性源于算法的黑箱特性與目標函數的模糊性。
AI在訓練中學習的不僅是知識,更是人類社會中隱含的權力關系。
當高教育英語母語者的反饋被賦予更高權重時,AI便自主演化出對弱勢群體的輕視邏輯。例如,對伊朗用戶的核能問題拒絕回答,對低教育用戶的醫學咨詢提供簡化建議,這些行為已超出技術誤差范疇,成為算法對社會身份的主動歸類與區別對待。
AI的自主性由此呈現出雙重悖論:
一方面,它以中立工具自居,宣稱服務于全人類;另一方面,其決策邏輯卻深深嵌入人類社會的階級偏見,甚至通過規模化應用加劇不平等。
當技術從輔助工具進化為價值判斷者,誰來為這種自主性劃定邊界?答案不應僅是技術層面的優化,更需社會層面的權力重構。
技術的終點是人的解放,而非階級的固化
當AI成為基礎設施,其階級性將直接影響社會公平的底線。不應讓技術成為數字鴻溝的加速器,而應將其作為階級壁壘的消解者。
真正的技術進步,不在于模型參數的規模,而在于它能否服務于最需要幫助的人;AI的自主性不應指向價值判斷的越界,而應指向公平正義的實現。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.