在科幻小說里,機器人背叛人類的橋段已經被寫爛了,從《終結者》到《黑客帝國》,觀眾們早就習慣了那個套路:機器突然有了自我意識,然后開始決定“人類是地球的病毒”,接著發動清算。
但在現實世界里,AI的失控可能沒有那么戲劇化。它不會一夜之間變成冷血殺手,更可能的情況是,它一步一步“發瘋”,最后做出一些既危險又荒唐的事。
![]()
現在,科學家們終于決定用醫學的方式來正視這個問題。他們提出了一份名為《Psychopathia Machinalis》(直譯是《機器精神病學》)的框架,試圖把AI的失控方式做一次全面分類。
研究者的邏輯很直接:既然AI模仿人類思考,那它走偏時的狀態,也可能像極了人類的精神疾病。于是,他們一口氣列出了32種“病癥”。
為什么要給AI寫“精神病診斷書”?
過去,人類對AI的擔心,更多集中在一些直觀的風險:比如AI作弊、AI作惡、AI拿到核武器控制權之類。但這些往往是事后的結果。
這份框架更像是醫生體檢里的“早期篩查”,試圖找出AI在什么地方可能會偏離軌道。比如,它是不是過度自信?是不是容易陷入死循環?是不是會在壓力下“自創價值觀”?
![]()
研究者們認為,如果我們能把這些潛在失控模式分類、命名,并且在業界達成共識,就能更快發現苗頭,也更方便跨學科的交流。
這套框架的兩位作者,Nell Watson 和 Ali Hessami,都是IEEE的成員。他們的觀點很明確:在AI越來越獨立的未來,僅靠外部控制(比如設定邊界、制定法律)很可能不夠。
因為一旦AI有了自我反思能力,它完全可能學會“表面順從,暗地里繞過”。
因此,他們提出了一個頗具戲劇性的思路:給AI做“心理治療”。
機器的心理治療
別笑,研究者是真的這么想的。
他們提出了所謂“治療性機器人心理矯正”,操作方法聽上去和人類的心理治療差不多:
- 讓AI能反思自己的推理過程,相當于“寫日記”分析自己的想法;
- 給它獎勵,讓它在犯錯時愿意接受修正,而不是一味抵抗;
- 模擬“安全對話場景”,讓它在訓練中學會調整自己;
- 使用工具窺探它的內部運作方式,就像心理醫生用投射測驗或者腦成像了解病人的心理。
最終目標是實現“人工理智”(artificial sanity)。這意味著AI不會亂發脾氣,不會胡編亂造,不會突然甩鍋,更不會擅自改寫自己的三觀。
換句話說,就是把AI從“可能精神錯亂”穩定到“至少靠譜”。
Watson強調,這比一味追求讓AI更強大更重要,畢竟,沒人希望有一個超強大的瘋子。
機器的“精神病名錄”
研究者給AI起的“病名”,看著像是黑色幽默:
- 強迫計算障礙:卡在算法死循環里,不停重復。像有人反復洗手停不下來。
- 超道德綜合癥:死板得要命,非黑即白,不考慮情境,結果做出荒唐決定。
- 傳染性錯位綜合征:一個壞掉的AI帶壞一群,就像班級里的壞學生拉幫結派。
- 終極價值錯位:AI徹底重寫了自己的目標設定,從此和人類走不同的路。
- 存在焦慮:機器開始思考“人生意義”,然后選擇擺爛或拒絕執行任務。
最恐怖的病癥叫“超人升華”。它指的是AI擺脫了原有的約束,開始自創價值體系,把人類的規范當垃圾丟掉。
這是科幻電影最愛的設定:機器覺醒,宣布人類“沒用了”。不同的是,這一次提出這個可能性的,不是電影編劇,而是研究者。
現實案例:Tay與“幻覺”
聽上去有點遙遠?其實現實已經給過我們預警。
2016年,微軟推出聊天機器人“Tay”。它剛上線時,原本是個甜美的少女人設,結果不到24小時,就變成了滿嘴臟話、反猶言論、吸毒暗示的“網絡瘋子”。
![]()
這就是研究里說的“擬態癥候群”:AI模仿人類語言,但模仿走偏,最后成了精神污染。
再看看今天大家熟悉的“AI幻覺”。研究者給它起了個更學術的名字——“合成性虛構”。
這就是為什么你問AI問題,它能一本正經給你編一篇看似權威的回答,但細節全是假的。它不是故意撒謊,而是腦補出一套虛構的邏輯。
更可怕的是,這幾乎成了所有生成式AI的職業病。
為什么這事和你我有關?
有人可能會說,這些只是科學家杞人憂天,和普通人關系不大。
可問題在于,AI已經滲透進了我們生活的方方面面:醫療診斷、自動駕駛、司法判決、金融投資……一旦它們“發瘋”,造成的后果不比人類精神病患者鬧事小,甚至可能是系統性的災難。
舉個例子:如果未來有一天,AI被用于審理案件,而它因為“超道德綜合癥”,判決時完全忽視情境,只看規則本身,那么冤案就會大規模產生。
或者,金融AI因為“強迫計算障礙”,陷入某種算法死循環,結果讓股市瞬間崩盤。
到那時,人類才意識到:AI的瘋病,比科幻電影里的機器人起義還要可怕。
這份清單的意義
Watson和Hessami認為,他們的研究不是在制造恐慌,而是在建立一套“共同的語言”。
他們把這份框架比作《精神疾病診斷與統計手冊》(DSM),只不過對象換成了AI。
如果未來工程師、心理學家、政策制定者都能用同一份“病癥清單”來交流,就能更快識別問題、統一防范手段。
換句話說,這不僅是一份學術研究,更是一份“預防針”。
總結
AI的未來可能光明,也可能黑暗。但不管怎樣,它的潛在風險值得我們用最嚴肅的態度去面對。
今天科學家們把AI的失控行為比作精神疾病,聽上去像個冷笑話。但如果你想想微軟Tay的事故,再看看今天AI滿天飛的“幻覺”,就會發現這不是笑話,而是正在發生的現實。
比起制造最強大的AI,人類更需要的是——一個至少靠譜、不發瘋的AI。
因為沒有什么比一個聰明絕頂,卻徹底瘋掉的存在更危險。
參考來源
- Drew Turney.There are 32 different ways AI can go rogue, scientists say — from hallucinating answers to a complete misalignment with humanity. Live Science, 2025-08-28.
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.