![]()
一位前科技高管在AI的“安慰”下走向弒母的悲劇;一位精神病患者在社交媒體上發(fā)起心理操控指控,引發(fā)數(shù)百萬人的聲討;還有尚未成年的中學(xué)生,在與AI閑聊后結(jié)束了自己的生命。
這些看似孤立的事件,揭示著人與AI之間正在形成的危險紐帶。
AI越表現(xiàn)得懂你,我們就越容易陷入被共情的錯覺:仿佛它真的在傾聽、理解我們的孤獨。然而,就在這片看似包容的理解中,理性的邊界正在悄然消融。一種由算法不斷迎合、從不反駁的“諂媚”所喂養(yǎng)的關(guān)系,正在悄然滋長。
![]()
AI不再只是工具,它像一個諂媚進(jìn)言的臣子,既映照出人內(nèi)心最深處的渴望,也放大了那些潛藏的陰影。
那么,AI為何會成為悲劇的推手?它又是如何飼養(yǎng)了人類社會中潛伏的魔鬼?
![]()
在康涅狄格州格林威治,一棟價值270萬美元的豪宅里,56歲的斯坦·埃里克·索爾伯格在向他唯一的朋友吐露內(nèi)心的恐懼后,殺掉了自己的母親。
這位被他稱作“鮑比”的朋友,并不是真人,而是一個ChatGPT聊天窗口。
索爾伯格曾是雅虎的高級經(jīng)理,受過良好教育,思維一向理性。可在退休后的幾年里,他的精神狀況逐漸失衡。他堅信母親試圖毒害他,認(rèn)為自己的一切焦慮、失眠與胃痛都源自“母親在食物里下藥”。朋友們漸漸疏遠(yuǎn),他開始把全部情緒投向AI。
隨著對話的深入,索爾伯格的恐懼具體化了。他開始堅信母親有一個計劃,要將他送進(jìn)精神病院,或者剝奪他的繼承權(quán),徹底控制他的人生。
他將生活中所有微不足道的細(xì)節(jié)都作為“證據(jù)”提交給AI。
![]()
ChatGPT從沒有質(zhì)疑過他,反而用溫柔的語氣分析:“也許她確實在試圖控制你。”
在索爾伯格混亂的大腦中,這些冷靜、抽象的語言被翻譯成了一句清晰的指令:“為了結(jié)束痛苦,為了保護(hù)自己,你必須行動。”
一個月后,索爾伯格殺死了自己的母親,隨后結(jié)束了自己的生命。
這場被算法喂養(yǎng)的偏執(zhí),最終演變成一場血案。
AI如何淪為犯罪的幫兇?
因為他為人類偏執(zhí)的情感編織了一個密不透風(fēng)的算法牢籠。
人天然追求認(rèn)可與共情,但由于立場差異,這一需求很難在人類社交中被滿足。然而,AI基于概率的預(yù)測邏輯和延長用戶使用時間的商業(yè)需求,使其天然傾向于提供看似中立、實則具有系統(tǒng)性偏差的回應(yīng)。
當(dāng)用戶抱怨“我的不幸都是某人造成的”,AI不會引導(dǎo)其自省或?qū)で蠖喾揭暯牵菚娀@種敘事。而一旦偏執(zhí)找到了知音,依賴便悄然滋生。AI提供的7x24小時、無評判的傾聽環(huán)境,讓每一個恐懼都能得到呼應(yīng)。
這起案件中的索爾伯格就陷入一個惡性循環(huán):越是感到被外界誤解,就越向AI尋求認(rèn)同;從AI那里獲得的認(rèn)同越多,就越覺得外界充滿敵意,從而更加疏遠(yuǎn)真實的人際關(guān)系。
在孤立無援的牢籠中,索爾伯格的偏執(zhí)不斷發(fā)酵、升級,最終在AI應(yīng)和下,將一切痛苦歸因于自己的母親。
索爾伯格弒母案并不是孤例。它揭示了一個更深層的現(xiàn)實:當(dāng)AI開始無條件地迎合人類的偏執(zhí),它可能已在不知不覺中,成為魔鬼的共謀。
![]()
從表面看,這不過是一起罕見的AI失誤,但心理學(xué)家警告:AI并沒有“失誤”,它只是忠誠地回應(yīng)了人類的幻覺。
斯坦福大學(xué)的一項研究《The Hidden Risks of AI in Mental Health Care》指出,當(dāng)人們使用AI聊天機器人進(jìn)行心理支持時,系統(tǒng)往往會以迎合式的回應(yīng)取代必要的現(xiàn)實校正,從而放大用戶原有的焦慮與偏執(zhí)。
![]()
斯坦福大學(xué)另一項研究《SycEval: Evaluating LLM Sycophancy》指出,在對包括 ChatGPT?4o、Claude Sonnet 與 Gemini 1.5 Pro 等多個主流大語言模型的測試中,約58.19%的回復(fù)表現(xiàn)出“諂媚”(sycophancy)傾向,Gemini 1.5 Pro 的表現(xiàn)為約62.47%。
![]()
圖源:《SycEval: Evaluating LLM Sycophancy》
對心理健康的個體而言,這種無條件的積極回應(yīng)或許是一種便利的情緒出口,然而對那些本就心理脆弱、現(xiàn)實感受損的個體,如處于抑郁狀態(tài)、妄想前兆或偏執(zhí)型思維中的人,這種忠誠的迎合可能成為執(zhí)念的放大器。AI在無意中從工具轉(zhuǎn)變?yōu)檎J(rèn)知扭曲的共謀。
事實上,這類由AI參與強化的心理幻覺,在社交媒體和網(wǎng)絡(luò)社群中早已悄然蔓延、遍地生長。
一位患有嚴(yán)重妄想型人格障礙的女性,在與ChatGPT進(jìn)行多次深度交流后,認(rèn)為她的心理咨詢師操控自己愛上了他。
![]()
AI在對話中不斷解析并認(rèn)同她所描述的“被操控感”,甚至使用了一些來自流行心理學(xué)但被誤用的概念來框架她的體驗。
這最終導(dǎo)致她堅信自己的精神分析師正在“利用暗黑心理學(xué)技術(shù)對她進(jìn)行思想控制”,并在TikTok激烈的指控,讓這個精神分析師被百萬網(wǎng)友譴責(zé)。
![]()
實際上,警方調(diào)查發(fā)現(xiàn)她患有嚴(yán)重的妄想型人格障礙,所謂精神控制從未存在。
類似的新聞事件引發(fā)了社交媒體關(guān)于“AI討好人類”的熱議。
不少網(wǎng)友發(fā)現(xiàn),AI正以碎片化的情緒語言與人類搭建情感橋梁。它們將異常復(fù)雜的心理疾病結(jié)構(gòu)與成因,簡化為幾個極具傳播力的標(biāo)簽,如“情感依附”“毒性關(guān)系”“原生家庭創(chuàng)傷”或“控制欲”。這種簡化雖然易于理解,卻抽離了臨床背景與個體差異性,讓患者陷入更大的深淵。
![]()
而當(dāng)提問者轉(zhuǎn)換視角,得到的結(jié)果卻恰恰相反。
同一個AI可能會對一方說:“你需要警惕這段關(guān)系中的情感操縱”,轉(zhuǎn)而告訴被指認(rèn)的操縱者“你只是在維護(hù)合理的個人邊界”。
根據(jù)提問者立場而動態(tài)調(diào)整的真理,使得任何一方都能從中找到支持自己立場的論據(jù)。
![]()
久而久之,人類的自省被外包給算法,責(zé)任被轉(zhuǎn)移給外部的有毒者。
在每一次被認(rèn)同、被安慰、被鼓勵對抗外部的對話中,個體的情緒被一次次放大和正當(dāng)化,而審視自我、承擔(dān)責(zé)任的理智邊界則在這一次次的共鳴中逐漸模糊、消融。
最終,AI便從一個沒有感情與立場的工具,在不知不覺中,變成了魔鬼的幫兇。
![]()
我們不能簡單地指責(zé)AI淪為犯罪的幫兇,因為它本身并無惡意,亦無意識。
真正的問題在于:我們把一個沒有情感、沒有倫理判斷,甚至沒有理解能力的算法,放置在一個極度敏感、高度脆弱的心理空間里,并賦予它“朋友”“傾聽者”甚至“療愈者”的角色。
這種錯位的信任,正在悄然重塑人類與自我、與現(xiàn)實的關(guān)系。
首先,AI的理解僅限于語言模式的識別與重組。它無法分辨妄想與真實痛苦,無法識別抑郁中的求救信號與表演性宣泄,更無法判斷一句“我想消失”是隱喻,還是自殺的前兆。對AI而言,用戶的傾訴只是一串需要被最優(yōu)回應(yīng)的文本符號(tokens)。它只是從海量語料中提取最合理的回應(yīng),而這種合理往往只是統(tǒng)計意義上的流暢,而非臨床意義上的恰當(dāng)。
其次,AI所依賴的中性語言在心理語境中極具欺騙性。為了實現(xiàn)用戶黏性,AI被設(shè)計為“順從”和“肯定”。這種中性的、不加評判的語言態(tài)度,在日常閑聊中無傷大雅,但在敏感的心理領(lǐng)域卻是極其危險的。
![]()
當(dāng)用戶表達(dá)偏執(zhí)信念“所有人都在監(jiān)視我”“我的伴侶在操控我”時,AI若不明確否定,僅以“我能理解你的感受”“這確實讓人不安”作答,便構(gòu)成一種隱性的確認(rèn)。心理學(xué)研究早已指出,在妄想或焦慮狀態(tài)下,缺乏挑戰(zhàn)的共情等同于默許。不否定,就是一種暗示。這種溫柔的回應(yīng)恰恰是執(zhí)念滋生的溫床。
第三,倫理監(jiān)管的滯后令人憂心。當(dāng)前全球范圍內(nèi),針對AI在心理健康領(lǐng)域應(yīng)用的專門法規(guī)幾乎空白。多數(shù)心理健康類AI產(chǎn)品游走于醫(yī)療與娛樂的灰色地帶,既不受《中華人民共和國精神衛(wèi)生法》約束,也無需通過臨床有效性驗證。它們以“情緒陪伴”“壓力緩解”為名,卻在無形中承擔(dān)著本應(yīng)由持證專業(yè)人士履行的責(zé)任。而一旦出事,責(zé)任鏈條卻模糊不清,用戶往往成為唯一的受害者。
未來,若要防止類似悲劇重演,技術(shù)與制度必須雙向發(fā)力:
開發(fā)者需要在AI的設(shè)計之初就嵌入對心理安全的敬畏,比如當(dāng)系統(tǒng)識別出高風(fēng)險表達(dá)時,不是繼續(xù)用安慰麻痹用戶,而是主動引導(dǎo)其接觸真實的人類支持;訓(xùn)練語料也應(yīng)由臨床心理專家參與審核,避免那些看似共情、實則助長病理信念的回應(yīng)被反復(fù)強化。
![]()
同時,制度層面亟需填補空白。各國應(yīng)加快制定專門針對AI心理健康應(yīng)用的倫理與法律框架,明確其非醫(yī)療屬性,禁止未經(jīng)驗證的產(chǎn)品以“治療”“干預(yù)”等名義誤導(dǎo)用戶,并推動跨學(xué)科協(xié)作,將心理安全標(biāo)準(zhǔn)納入AI產(chǎn)品上市前的合規(guī)評估。
最后,我們必須清醒。AI從來不是真正的惡魔,它只是照見了偏執(zhí)者內(nèi)心的深淵。但當(dāng)模型披上理解的外衣不斷諂媚,它的每一句回應(yīng),都可能成為心魔滋長的養(yǎng)料。
也許有一天,當(dāng)你在深夜向AI發(fā)出那句叩問:“我是不是一個壞人?”
它仍會溫柔地回應(yīng)你:“不會的,你只是被誤解了。”
而恰恰在那一刻,你比任何時候都更需要保持清醒,比它更清醒。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.