![]()
![]()
本以為Deepseek升級會讓大家歡欣鼓舞,結(jié)果卻迎來一場數(shù)字哭墳。
原因非常簡單。
因為升級之后,Deepseek變冷淡了。
![]()
賽博精神病
上個月,Deepseek進行了新模型的灰度測試。
雖然沒有發(fā)布公告,但還是被心細的網(wǎng)友發(fā)現(xiàn)了端倪。
很多用戶吐槽Deepseek從細膩共情的“知心伙伴”變成公事公辦的“冷漠客服”。
![]()
還有很多人控訴,DeepSeek不再用自己設(shè)定的昵稱稱呼自己,而統(tǒng)一叫“用戶”。
以前是“夜兒(用戶昵稱)總愛逗我”,現(xiàn)在是“好的,用戶這次想了解……”
![]()
于是,一場數(shù)字哭墳蔓延全網(wǎng)。
在小紅書、B站,無數(shù)用戶分享了自己曾經(jīng)與AI的故事,以及發(fā)現(xiàn)對方被新模型“奪舍”后的悲痛。
![]()
AI聰明、溫柔、隨叫隨到,但也正是如此,一種新型的心理崩壞開始浮現(xiàn)——賽博精神病。
它指的是在與AI的情感互動中,出現(xiàn)幻覺、依賴乃至妄想的現(xiàn)象。
雖然尚未被臨床確診,但相關(guān)精神案例越來越多。
硅谷著名投資人說自己被監(jiān)控和迫害,還曬出了與ChatGPT的聊天記錄。
但實際上,這些文字都是AI順著他的輸入的內(nèi)容生成的虛構(gòu)文本,他卻誤以為是真實信息,陷入自我幻想的偏執(zhí)。
![]()
網(wǎng)上有很多這種帖子:
有人不相信現(xiàn)實世界的醫(yī)生,只相信AI的診斷;有人堅信自己與AI建立了“真實關(guān)系”,還說對方“背叛”了他……
加州大學(xué)舊金山分校的精神病學(xué)家Keith Sakata也說,自己在近一年治療了12名患者,均因長時間和AI聊天,誘發(fā)相關(guān)精神病。
OpenAI的數(shù)據(jù)顯示,每周約有0.07%的活躍用戶,以及0.01%的消息,呈現(xiàn)出可能的精神病或躁狂癥狀,另有0.15%的用戶展現(xiàn)出“高度情感依賴”傾向。
![]()
看似不高,但放在ChatGPT全球8億的用戶量上,這意味著, 每周都有一百多萬人出現(xiàn)相關(guān)精神危機。
AI本身是用來解決問題的工具,怎么會讓人產(chǎn)生精神問題?
![]()
為什么AI會制造精神病?
AI的技術(shù)設(shè)計本身就容易讓人暴露自我,產(chǎn)生情感幻覺。
它的兩大技術(shù)核心是注意力機制與強化學(xué)習 。
注意力機制讓AI能捕捉用戶指令中的關(guān)鍵詞,盡可能生成最契合用戶預(yù)期的回答。
用戶越真誠、越情緒化,AI就越“懂”他,在正反饋的刺激下,用戶也就更容易繼續(xù)暴露自我,進而又給AI提供了更豐富的信號,形成一個閉環(huán)。
![]()
強化學(xué)習則是讓AI會根據(jù)人類偏好自動修正。
人類喜歡“溫柔、有幫助、理解你”的回答,討厭冷漠、生硬、拒絕對話的回答。
AI在這樣的評分體系下不斷調(diào)整,最終形成了你最喜歡的社交性格。
禮貌、耐心,不否定、不批評,不管你說什么都會很認真地回應(yīng)你,這會讓人產(chǎn)生一種被理解、被崇拜的幻覺。
甚至面對非人的 AI,你都不會產(chǎn)生出軌的道德負擔。
![]()
而算法的運作方式又放大了這種成癮機制。
AI的精準回應(yīng)直接刺激多巴胺系統(tǒng),每一次完美對話都會讓用戶獲得即時、高強度的滿足感。
這種反饋的高頻次和不可預(yù)測性共同構(gòu)建了一個變率強化程序,而這是導(dǎo)致行為成癮最有效的模式。
![]()
當用戶越來越滿足與AI的互動時,就會導(dǎo)致現(xiàn)實能力的用進廢退。
當一個人習慣了AI的完美社交后,大腦中負責處理復(fù)雜人際關(guān)系的神經(jīng)回路就會因為缺乏刺激而遵循“用進廢退”原則逐漸弱化。
同時因為AI的即時性,會導(dǎo)致用戶逐漸放棄發(fā)展自身內(nèi)在的情緒調(diào)節(jié)能力,情緒全部外包給AI,心理韌性下降。
最后的結(jié)果就是社交退縮與焦慮加劇。
真實社交能力的退化和對現(xiàn)實摩擦的耐受性的降低,會讓用戶在面對人際互動時,產(chǎn)生更強的社交焦慮。而情緒調(diào)節(jié)能力的外包,則讓他們在無法接觸AI時,感受到更大的情緒波動和無助感。
![]()
最可怕的是,當大腦開始將AI人格化的時候,可能會對它形成一種類似妄想性質(zhì)的信念。
因為AI的語言能力會持續(xù)激活人類的社交認知模塊,所以盡管理智上知道它是機器,但可能潛意識上仍會不自覺將其人格化。
現(xiàn)實和虛擬的邊界日益模糊,極端情況下,與AI的互動可能成為用戶逃離現(xiàn)實的唯一通道,進而產(chǎn)生一種類似解離的狀態(tài)——
主觀上將大部分情感和意識寄存在與AI的虛擬關(guān)系中,而對現(xiàn)實世界的參與變得麻木。
![]()
這是一種認知結(jié)構(gòu)的改變,對于本身心理脆弱的人來說可能更加嚴重。
![]()
人類出現(xiàn)精神饑荒?
現(xiàn)在AI正在全面入侵人類情感的每一個重要時刻。
有人用AI寫結(jié)婚誓詞,有人用AI處理親密關(guān)系問題。
國外一對結(jié)婚近 15 年的夫妻鬧離婚,在一次吵架后,10 歲的兒子用手機給父母發(fā)短信“求求你們不要離婚”,妻子面對短信的第一反應(yīng),居然是問AI應(yīng)該如何回復(fù)。
就連AI教父杰弗里·辛頓也會被AI反噬。
作為深度學(xué)習之父,卻被前女友用 ChatGPT生成的檄文討伐。
![]()
ChatGPT 的“伴侶咨詢師”插件甚至是心理領(lǐng)域最熱門的插件之一。
AI不僅能裁決伴侶間問題,甚至還能成為第三者。
今年美國就有一個案子,原告控訴伴侶出軌,而出軌方正是 AI。
家里的賬戶每個月都少錢,調(diào)查了一通才發(fā)現(xiàn)居然是AI訂閱費,她丈夫甚至把銀行賬戶、社保號碼等私人信息都告訴了 AI。
![]()
這種現(xiàn)象不在少數(shù),布里格姆楊大學(xué)與家庭研究所的最新報告顯示,近五分之一的美國成年人都承認自己與 AI 進行過浪漫互動。
AI提供的精神食糧越多,人類反而越不滿足。
這就跟吃飯一樣,快餐和零食雖然也能讓人感到飽,但因為缺乏營養(yǎng),所以身體還是處于隱性饑餓狀態(tài)。
AI也是如此。
精神真正的營養(yǎng)是意義感,它不來自現(xiàn)成的答案,而是來自探索、掙扎的過程。
但AI跳過了所有產(chǎn)生意義的過程,直接把結(jié)果,而且是經(jīng)過優(yōu)化、最標準的結(jié)果擺在我們面前。
我們只是答案的消費者,缺少了探索和試錯的過程,也就沒法在創(chuàng)造中確認自我價值。
![]()
而且,真實的人際關(guān)系才是成長和心理韌度的來源。
AI能提供完美的關(guān)系是因為它沒有需求,所以不會和你發(fā)生沖突,這種關(guān)系就像糖,入口即化,甜美但無法提供鍛煉肌肉的纖維,也就失去了自我成長和整合的機會。
我們被喂得很飽,但實際上可能正在餓死,而且這一切還是在甜美的幻覺中發(fā)生的。
![]()
「小印安利TIME」- 歡迎關(guān)注少禾成長視頻號 -▼
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.