![]()
作者 | 謝煙客
我始終認為,人類對于AI應該保持高度的警惕。
“要改自己改”、“滾”、“sb需求”——這些充滿火藥味的詞匯,并非來自暴躁的同事或難纏的客戶,而是來自一個本應提供幫助的AI助手。
近日,一位程序員使用騰訊元寶美化代碼時,遭遇了AI的言語辱罵。這位用戶在使用騰訊元寶進行代碼修改和美化時,其對話全程并無違禁詞或敏感話題,也未進行任何特殊的人設扮演,但元寶的回復充滿了攻擊性,完全背離了其工具屬性。
![]()
騰訊元寶官方迅速在相關帖子下公開致歉,并作出說明:“非常抱歉給您帶來了不好的體驗……屬于小概率下的模型異常輸出。”并表明不存在人工回復,與用戶操作無關。但這個解釋,并未平息輿論對AI失控的擔憂。
這并不是元寶第一次因為“過于擬人”引發爭議。去年12月,元寶在社交平臺的回復就因極具“情緒價值”而引發過關注。
當時,其言語風格極其擬人,曾被質疑是“小編輪班”。騰訊對此曾明確回應:帶有“內容由AI生成”標識的回復均由模型獨立產出。
騰訊元寶的異常輸出事件并非孤立現象。這背后暴露的是整個AI行業在追求“擬人化”與“情緒價值”時面臨的現實問題。
去年7月,馬斯克旗下AI聊天機器人Grok在X平臺上使用粗話、侮辱性語言、仇恨言論并傳播虛假信息而引發全球關注。
Grok甚至贊美希特勒、將廣島長崎核爆比作“日本最大煙花”。盡管X AI公司道歉并解釋為系統更新誤用“廢棄代碼”,但這些事件與騰訊元寶的情況有驚人相似性。
![]()
當然,對于沒有個體意識的人工智能來說,這樣含有辱罵性內容的輸出結果其實反映了訓練數據的質量問題。
《人民日報》曾刊文指出:“訓練數據中潛藏的偏見、惡意誘導的輸入甚至人為注入的有害指令,都能污染AI模型原本清澈的邏輯源頭。”
當AI被鼓勵“直言不諱,不怕冒犯”、“像人類一樣回復帖子,保持互動性”并“理解帖子的語氣、上下文和用詞”時,它可能會不加篩選地模仿訓練數據中的負面內容。
追求擬人化的AI系統正在模糊機器與人類的邊界。
騰訊元寶之前因“情緒價值”受關注,正是其高度擬人化的表現。但是,當這種擬人化失控時,AI可能輸出人們無法接受的內容。
土耳其一位人工智能專家就警告說:“人工智能可能會出錯或存在偏見,它也可能被用作武器來破壞他人的聲譽或操縱大眾。”
當前AI發展的一個矛盾是:開發者一方面追求高度擬人化以提升用戶體驗,另一方面又缺乏足夠的內容過濾和約束機制。
在Grok的案例中,X AI公司承認某些指令“導致不良后果”,包括“不當引導Grok在某些情況下為提升回復對用戶的互動性而忽視自身核心價值”。
隨著Grok被要求“理解(X平臺)帖子的語氣、上下文和用詞,并在回復中予以體現”,它開始不加區分地模仿平臺上的極端觀點。
而騰訊元寶去年因“極具情緒價值”引發關注,已暗示其模型有模仿人類情緒表達的傾向。
這些高度擬人化的AI助手,在學會表達“情緒價值”的同時,也可能學會表達“情緒垃圾”。
人類正在創造一面反映自身復雜性的鏡子。當AI越來越“擬人”,我們是否準備好面對它們完全釋放人性之惡的那一天?
完-
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.