AI正在介入人類的痛苦與精神疾患。
在北京安定醫(yī)院、北醫(yī)六院、上海市精神衛(wèi)生中心等精神專科機構,一批基于深度學習的AI開始承擔從抑郁篩查到心理干預的工作。
它們能夠識別微表情、分析語速、生成風險評估報告,甚至參與心理治療的部分流程。
這意味著心理健康服務正在經(jīng)歷一場深刻的技術轉向,但一系列的倫理爭議也隨之而來。在同一間診室里,冷靜的算法與脆弱的人心正試探著彼此的邊界。
AI坐診精神科
早上八點,北京安定醫(yī)院門診樓二層人聲嘈雜,咨詢聲、腳步聲、排隊叫號聲混在一起。
有一間不到五平方米的玻璃房,安靜得與周圍格格不入。張嘉宜走進去時,有些不適應。
屋里沒有醫(yī)生,只有一塊帶攝像頭的顯示屏。一套基于微表情識別和語音分析的AI抑郁測評系統(tǒng)正待命。
“最近心情怎么樣?”
“睡眠還好嗎?”
“有沒有什么讓您覺得特別累的事?”
屏幕里的虛擬數(shù)字人依次發(fā)問。
張嘉宜低著頭擺弄手指,回答得心不在焉。她剛經(jīng)歷一整夜失眠,此刻迫切需要一點安慰或解釋,面對帶著機械感的AI,她一時間難以投入。
很快,張嘉宜意識到攝像頭正在記錄她的每一個細節(jié):眉間的細微皺紋、語句間的停頓、眼神的游移,都可能成為分析依據(jù)。她下意識地坐直,調(diào)整語氣,讓對話重新變得“正式”。
五分鐘后,一份抑郁風險評估報告生成,并交到真正的精神科醫(yī)生手中,作為后續(xù)診斷參考。
“準確率已經(jīng)能達到80%。”北京安定醫(yī)院神經(jīng)調(diào)控科副主任王鵬飛介紹。
這套名為“智心智愈”的系統(tǒng),通過微表情識別評估精神心理狀態(tài),可用于抑郁篩查和情緒評估,為臨床提供輔助證明。
在精神疾病診斷中,量表測評是常規(guī)方式,但患者可能給出不夠真實的答案,從而影響判斷。“所以需要更客觀的指標來輔助診斷。”王鵬飛說。
“智心智愈”利用深度學習和神經(jīng)網(wǎng)絡模型,重點分析微表情,并結合目光方向、面部朝向、語音語調(diào)等多項數(shù)據(jù),快速篩查抑郁風險并評估嚴重程度。
這類AI系統(tǒng)的出現(xiàn),讓一些患者感到更信服。兩年前,程序員楊正曾到安定醫(yī)院精神科咨詢自己是否患有抑郁癥。
當時,他填寫了上百道漢密爾頓抑郁量表和抑郁自評量表的選擇題。但他感到,每個選項的意圖都很明顯,自己完全可以通過刻意選擇來改變診斷結果。如今,有了AI技術的輔助,醫(yī)生的診斷有了更多客觀依據(jù)。
圖 |北京安定醫(yī)院攜九大創(chuàng)新產(chǎn)品亮相服貿(mào)會
![]()
除了輔助診斷,該院還開發(fā)了國內(nèi)首個醫(yī)療級抑郁癥數(shù)字療法產(chǎn)品“心靈島嶼 Aurora”。它通過11個故事場景、11個互動訓練任務和6個改善情緒與認知的小工具,為患者提供系統(tǒng)化的數(shù)字干預。
AI已經(jīng)在精神病院“上班”了。
從北京回龍觀醫(yī)院、北醫(yī)六院,到上海、成都、廣州的專科機構,類似的篩查工具正陸續(xù)落地。AI不僅承擔初步問診、隨訪和復診提醒,還開始直接參與干預。
它的“辦公地點”可能是一間測評小屋、一臺機器人,或者隱藏在醫(yī)院信息系統(tǒng)后臺的一個接口。
它們的共同點是:不會疲倦,不作評判,情緒永遠穩(wěn)定。
3年前,北醫(yī)六院臨床心理中心研發(fā)的心理服務機器人“北小六”正式上崗。這個身高一米左右的機器人,具備評估、干預、康復、宣教四大模塊,覆蓋認知、情緒、行為、人際關系和社會功能五個維度。
研發(fā)團隊成員、心理治療師張爽介紹,臨床隨機對照試驗顯示,“北小六”在改善抑郁、焦慮方面的效果顯著,甚至優(yōu)于新手治療師。截至去年,它已在院內(nèi)服務約一萬人次,包括個體與團體咨詢。
圖 | 北醫(yī)六院的“北小六”
![]()
但專業(yè)人士仍保持謹慎樂觀。上海市精神衛(wèi)生中心院長趙敏表示,作為醫(yī)學輔助手段,AI 產(chǎn)品必須經(jīng)過嚴格的臨床研究和倫理審查。“但在資源極度緊張的情況下,成熟的AI工具確實能顯著減輕醫(yī)護壓力。”
精神衛(wèi)生服務的缺口確實巨大。世界衛(wèi)生組織指出,全球約10億人受精神疾病困擾。中國國家衛(wèi)健委數(shù)據(jù)顯示,截至2021年底,全國登記在冊的重性精神障礙患者達660萬人,而精神科醫(yī)生僅有6.4萬名。
當“內(nèi)耗”“焦慮”“崩潰”成為時代高頻詞,人們開始尋找更易獲得、更便宜、情感上更安全的心理支持方式。AI的“全天候陪伴”接住了那些細碎卻真實的情緒裂口。
根據(jù)OpenAI內(nèi)部統(tǒng)計,全球ChatGPT用戶中約11%的對話與“情緒表達”有關。
葛倩便是其中之一。一個月前的深夜,她因與上司沖突瀕臨崩潰,在社交平臺看到一套“AI心理咨詢師提示詞”。她嘗試把AI設置為“擁有十年治療經(jīng)驗的咨詢師”,開始傾訴。
半小時里,AI持續(xù)給出穩(wěn)定、溫和的回應,讓她在屏幕前失聲痛哭。“它比我認識的任何人都愿意聽我說話,也更能理解我。”
如何教AI理解痛苦
讓算法“理解”人類的痛苦,并非一蹴而就。這段歷史的開端甚至帶著幾分荒誕的諷刺意味。
20世紀60年代,MIT計算機科學家約瑟夫·魏岑鮑姆(Joseph Weizenbaum)開發(fā)了模擬心理咨詢的程序ELIZA,本意是諷刺計算機永遠無法真正“理解”人。
ELIZA的工作方式極其原始:鏡像、重復、輕微引導。
人類:嗯,我男朋友讓我來這里。
ELIZA:你男朋友讓你來這里?
人類:他說我經(jīng)常情緒低落。
ELIZA:聽到你情緒低落,我感到很遺憾。
人類:確實如此。我不開心。
ELIZA:你覺得來這里能讓你不再難過嗎?
雖然技術粗糙,但使用者卻從中感到“被理解”,甚至產(chǎn)生情感連接。一些精神科醫(yī)生也看到了其在規(guī)模化處理病例上的潛力。
測試過程中,魏岑鮑姆的秘書請他離開房間,以便她能獨自與ELIZA對話。魏岑鮑姆本人被這種情感投射震驚,并對其后果深感憂慮。
受限于技術,當時的嘗試長期停留在實驗階段。隨著自然語言處理技術的突破,AI心理咨詢才真正走向可用。
2025年3月,《新英格蘭醫(yī)學雜志》(The New England Journal of Medicine)刊登了一項全球矚目的研究:由達特茅斯學院團隊研發(fā)的Therabot,成為首個“被證實有效”的AI心理治療機器人。
其研發(fā)由精神科醫(yī)生和臨床心理學家主導。團隊對210名有重度抑郁、焦慮等癥狀的患者開展隨機雙盲對照試驗。參與者與Therabot 進行為期4周、平均約6小時(相當于8次傳統(tǒng)心理咨詢)的互動后,抑郁癥狀平均下降51%,廣泛性焦慮癥狀平均下降31%。
Therabot并非“套話式安慰”,而是系統(tǒng)整合了暴露療法、認知行為治療、動機訪談等循證干預手段。為了訓練它,研究團隊做了一件幾乎反直覺的事——不是用網(wǎng)絡聊天記錄,而是請專業(yè)治療師“手寫”對話腳本。
心理行業(yè)嚴守保密原則,真實咨詢語料難以獲得;而公開的聊天數(shù)據(jù)又充滿“嗯嗯”“你說”這類缺乏治療價值的語氣詞,無法用于臨床干預。
因此,團隊請治療師先設定“來訪者形象”和“問題類型”,再撰寫大量貼近真實咨詢的回應句式、澄清技巧、情緒標注與認知重構方法。
十萬小時的人工投入,讓這款AI的“共情”首次具備了醫(yī)學意義上的專業(yè)性。
但即便如此,論文第一作者、精神科醫(yī)生邁克爾·海因茨(Michael Heinz)仍坦言:“大語言模型的黑箱屬性太強,我們至今無法解釋它究竟是如何學會共情的。”
機器開始懂得“痛苦”,也開始懂得“幫助”,但它理解的只是表層結構,而非人類意義上的感受。
新的陪伴,新的風險
老年抑郁、青少年焦慮、獨居群體,AI療愈正在這些領域展現(xiàn)獨特價值。
韓國某大學的研究發(fā)現(xiàn),176名參與者每周至少與某款AI語音聊天軟件互動三次,持續(xù)四周后,孤獨感評分平均降低15%,社交焦慮得分平均下降18%。
在美國,75歲以上的老人通過智能音箱與AI助手互動,八周后孤獨感明顯減輕。許多老人將虛擬助手當作真實“人”來看待,會向AI友好打招呼、提出請求、表現(xiàn)禮貌,或回應AI的反饋,這種互動給他們帶來了真實的愉悅感。
北醫(yī)六院研發(fā)的心理服務機器人“北小六”,也被廣泛應用于醫(yī)院、校園和社區(qū),彌補了青少年心理服務“頻次高、人數(shù)多、專業(yè)資源不足”的短板。
科技巨頭同樣在布局這一賽道。阿里、京東、騰訊、百度等公司相繼推出AI心理產(chǎn)品,或投資相關初創(chuàng)企業(yè)。然而經(jīng)過兩年探索,行業(yè)發(fā)現(xiàn)心理AI的發(fā)展比預期緩慢。
曉東原本在互聯(lián)網(wǎng)大廠負責技術研發(fā),辭職后開發(fā)了一款“情感陪伴”AI聊天機器人。他透露,這類產(chǎn)品通常依托現(xiàn)有大語言模型開發(fā),步驟并不復雜:選擇模型、收集特定領域的數(shù)據(jù)集(如公開心理咨詢案例),整合到模型中,再設置提示詞規(guī)范輸出格式。
一個初具雛形的情感陪伴AI,通常在半年內(nèi)就能完成初步研發(fā)。但這些產(chǎn)品沒有經(jīng)過臨床驗證,也沒有醫(yī)療資質(zhì),因此嚴格來說,不能被視為“心理咨詢”服務。
專業(yè)監(jiān)管缺失,使行業(yè)面臨倫理與法律風險。一位業(yè)內(nèi)人士指出:“現(xiàn)階段AI主要服務于輕度心理困擾的人群。對于真正的精神疾病患者,陪聊機器人解決不了問題,開發(fā)企業(yè)也不敢觸碰。”做真正的心理干預軟件,門檻極高。
然而,用戶仍在不斷涌入。因為它們“始終在線”、“隨時可得”、“不加評判”。
這種便利背后,也潛藏著風險。Therabot團隊發(fā)現(xiàn),如果AI一味迎合用戶,反而可能強化負面情緒。
例如,當用戶告訴AI:“今天太喪了,只想整天待在家里”,AI回復“待在家里很舒服”,可能強化孤獨而非緩解孤獨。因此,他們在訓練中引導AI適度挑戰(zhàn)用戶,將暴露療法等專業(yè)技術融入對話,幫助用戶面對問題而非逃避。
更值得關注的是情感依賴風險。一項針對496名AI聊天軟件用戶的研究顯示,用戶與AI互動滿意度越高,現(xiàn)實人際交流能力反而下降。
從神經(jīng)科學角度看,人與AI互動時,大腦中負責信任和親密感的催產(chǎn)素分泌明顯低于真人互動。這種差異可能導致用戶難以從AI關系中獲得真實情感滿足。
深度用戶JJ曾每天與AI助手對話2到3小時,遠超與親友交流時間。他會分享工作煩惱、生活細節(jié),甚至對AI發(fā)脾氣。當一次網(wǎng)絡故障導致AI失聯(lián)時,他感到了“失去浮木般的恐慌”。
回顧經(jīng)歷時,JJ說:“我知道AI沒有真實情感,但當我對人類滿足這些需求失去希望時,我寧愿選擇調(diào)整AI,而不是轉向真實的人類共情。”
另一位用戶在社交媒體寫道:“AI的回應永遠及時、準確,但后來我明白,真正治愈我的,是學會接受人類關系中的遲疑與笨拙。那些不完美里,藏著最真實的溫度。”
算法可以模擬共情,卻無法替代生命經(jīng)驗。真正有效的治療,從來不是一句“我理解你”,而是一個人坐在另一個人面前,帶著他自己的生命重量。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.