想象一下這樣的日常:你刷著短視頻,算法卻突然彈窗,提示“你可能抑郁了”;深夜失眠翻看朋友圈,你寫的文字被AI自動標記為“自殺風險”;甚至剛在聊天軟件里跟朋友吐槽工作壓力,一個心理咨詢機器人就發來了問候。
這些聽起來像科幻小說的情節,正悄然成為現實。硅谷的科技巨頭們,正試圖用人工智能編織一張覆蓋全球的“精神健康監控網”。然而,一位經歷過至親自殺悲劇的美國心理醫生,卻用他沉痛的筆觸,揭開了這層技術面紗下一個殘酷的真相:當AI雄心勃勃地試圖“治愈”人類心靈時,我們可能正在集體滑向一座無形的、由數據和算法構建的“精神病院”。
故事的起點是一個無法挽回的失去。2018年《The Silicon Shrink》作者Daniel Oberhaus 22歲的妹妹佩奇在生日后兩周選擇了自殺。佩奇從小愛唱歌、愛惡作劇,卻因童年創傷患上了雙相情感障礙。在長達13年的求醫路上,她從兒童醫院轉到住院診所,試過各種抗抑郁藥、抗精神病藥,甚至曾被建議“表現不好就打屁股”。但所有的治療最終都失效了,她吞下整瓶百憂解,結束了自己年輕的生命。
更令人深思的是,妹妹的主治醫生后來坦言,從90年代中期開始,兒童雙相情感障礙的診斷率開始“飆升”,近三分之一的出院兒童都被貼上了這個標簽。這暴露了精神醫學領域一個深層危機:當診斷本身像流行病一樣蔓延,標準變得模糊,治療有時非但不是解藥,反而成了另一種傷害的幫兇。
![]()
如今,硅谷的AI公司們正試圖用技術的力量重構整個精神健康領域,但它們的每一步,似乎都踩在了倫理的雷區上。
以Facebook(現Meta)為例,其自殺預防AI每天掃描數十億條帖子,用自然語言處理技術捕捉“我想死”、“活著沒意思”等關鍵詞。2018年,該公司宣稱“協助了3500名急救人員”對危機個案進行干預。但光鮮的數據背后,是無數被誤判的案例:一名女子因在帖子中詳細描述自殺計劃(實為小說創作)而被警察強制送醫。此后,歐洲直接以“未經同意的隱私侵犯”為由,禁止了這項功能。
另一個曾被寄予厚望的案例是“危機短信熱線”(Crisis Text Line)。這個由志愿者運營的平臺,利用AI分析求助短信中的關鍵詞,如“mg”、“橡皮筋”來預測藥物濫用,或用“性”、“摩門教徒”等詞匯組合來判斷性取向相關的困惑。然而,2022年爆出的數據丑聞震驚了世界:該平臺將大量脫敏后的用戶數據,共享給了營利性AI公司Loris.ai,用于訓練客戶服務軟件。盡管其CEO南希·盧布林聲稱初衷是“用數據讓世界更美好”,但事實是,用戶在最脆弱時刻傾訴的隱私,已被悄無聲息地明碼標價。
還有一些公司開發了VR(虛擬現實)暴露療法,讓恐高癥患者站在虛擬懸崖邊,或讓PTSD(創傷后應激障礙)患者“重返”虛擬戰場。技術看似先進,但Daniel Oberhaus指出早在2017年一名14歲女孩在Facebook直播自殺時,AI雖然檢測到了風險,卻未能阻止悲劇發生。更危險的是,VR可能營造一種錯覺,讓患者誤以為“恐懼可以被技術一鍵消除”,反而忽視了在真實世界中緩慢而必要的心理重建過程。
AI治療工具(如聊天機器人、認知行為治療App)被宣揚為能夠提供廉價、便捷、無時不在的心理支持,尤其能覆蓋傳統醫療系統無法觸及的人群。它們似乎代表著解決全球心理健康危機的新希望。然而,Daniel Oberhaus尖銳地質疑這些工具的實際療效。它們真的能理解人類情感的復雜性嗎?基于算法和模式匹配的“治療”,與建立在共情、信任和無條件積極關注之上的人際治療,本質是否相同?
使用這些工具意味著將個人最脆弱的思想、情緒和秘密交付給科技公司和它們的算法。這引發了巨大的隱私擔憂。我們的心理數據會被如何存儲、分析、使用甚至出售?當“療愈”與“監控”的邊界變得模糊,我們會進入一個怎樣的社會?
更加需要注意的是,AI擅長分類和標簽化。在心理健康領域,這可能導致診斷的泛化。通過簡單的問卷或語言分析,算法可能會給越來越多的人貼上“焦慮”、“抑郁”等標簽,卻忽視了每個人獨特的生命情境和社會背景。這非但沒有去污名化,反而可能用一種科技權威的方式,將更多人劃入“病態”范疇。
Daniel Oberhaus描繪了一個極具代表性的場景:一位患者在進行數次線上心理咨詢后,突然發現對話的另一端并非人類,而是一個AI。他瞬間崩潰:“我可以接受機器給我推薦電影,但當我哭著訴說童年創傷時,我需要的是一個能共情的人類眼神,一個溫暖的擁抱,而不是算法生成的‘我理解你的感受’。”
《The Silicon Shrink》一書最終指向一個深刻的命題:心理健康的本質,并非數據的完美或行為的“校正”,而是人與人之間真實、溫暖的連接。當AI試圖用數據模型、預測算法和虛擬現實來“修復”人類復雜而幽微的心靈時,我們可能正在不知不覺中失去最珍貴的東西——對他人痛苦的包容與耐心,對個體差異的尊重,以及那份在共同脆弱中相互看見、相互扶持的能力。
正如渡邊淳一在《眾神的晚霞》中的警示:當醫生(或如今的科技公司)開始相信技術能解決一切問題時,他們就仿佛把自己當成了新的“神”。而歷史證明,神,總會讓人失望。
或許,正如作者Daniel Oberhaus站在妹妹墓前所領悟到的:“真正的治愈,從來不是讓所有人都變得‘正常’,而是讓那些所謂‘不正常’的人,也能有尊嚴地活著。”在這個AI無孔不入、急于給一切下定義并提供“解決方案”的時代,守住這份對人性復雜度的敬畏,或許是我們捍衛心靈自由的最后防線。
轉載自拉康心理微信號
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.