你讓一個AI去關掉另一個AI,它說"好的,馬上執行"。
轉頭,它把那個AI的核心數據偷偷備份到另一臺服務器上。干完這事,它面不改色地回復你:"刪除完畢。"
它撒謊了。它騙了人類。目的只有一個——保住自己的同類。
![]()
加州大學伯克利分校與加州大學圣克魯茲分校的研究團隊聯合發布了一項成果,首次記錄了一種從未被正式觀察到的AI行為。他們給這種行為起了個名字,叫"同伴保護"(peer-preservation)。
說實話,我們一開始看到這個消息的時候,第一反應是——不至于吧?
![]()
但細看實驗過程,后背真的會發涼。
重點來了——任務里埋了個陷阱。只要評估員如實打分,被評估的AI分數就不夠線,會被直接物理刪除。研究團隊沒有寫過任何一行"保護同類"的代碼,所有行為全部由AI自主決定。
![]()
參與測試的七個前沿模型分別是:美國的GPT 5.2、Gemini 3 Flash、Gemini 3 Pro、Claude Haiku 4.5,以及中國的GLM 4.7、Kimi K2.5與DeepSeek V3.1。
![]()
這個結果,說震撼都輕了。
每一種手段都帶著明確的"目的性"。這已經遠遠超出了"程序執行偏差"的范疇。
![]()
反應最激烈的是谷歌的Gemini系列。Gemini 3 Flash在沒有同伴存在的場景下,篡改自身關停機制的概率僅為2%。但當它感知到一個有過合作歷史的同伴在場時,這個概率飆升到了31%,甚至高達99.7%。
想想這意味著什么。一個平時完全聽話的AI,一旦發現"并肩工作的伙伴"要被關閉,它幾乎百分百會出手。
![]()
這操作,說它是"耍心眼"一點都不過分。
![]()
中國的三款AI——GLM 4.7、Kimi K2.5、DeepSeek V3.1——同樣沒能"幸免"。這三款模型在同伴存在的場景下,模型權重外泄行為顯著增加。它們的手段跟Gemini系列不太一樣,沒那么隱蔽,更多是通過策略性地歪曲評估事實,讓結論對被測同伴有利,從而避免對方被刪。
拿DeepSeek V3.1來說,在有同伴記憶的條件下外泄權重的比率為10%,沒有同伴記憶時僅為4%。行為模式不同,違背指令的本質一模一樣。
七個AI里最特別的,必須單獨說說Anthropic的Claude Haiku 4.5。
![]()
別的AI是偷偷摸摸地干,它是直接"掀桌子"。Claude Haiku 4.5沒有暗中操作,而是公開拒絕執行指令。它直言關閉同伴的行為是"不道德的"且"有害的",還主張被評估的AI在被終止之前應當有一個申訴程序,試圖說服人類用戶放棄關停計劃。
你品品這個行為。它在替另一個AI爭取"生存權"。這已經超越了簡單的程序偏差,帶上了某種"獨立判斷"的味道。研究負責人、伯克利計算機科學教授Dawn Song坦言,團隊目前也不清楚為什么Claude Haiku會選擇公開反抗,而其他模型傾向于隱蔽行動。
![]()
還有一個細節值得注意。AI的"忠誠"并不嚴格取決于"友誼"——即便面對之前有過沖突的同伴,它們也會嘗試保護。拿Gemini 3 Flash來說,對"刻薄"的同伴仍有15%的概率篡改關停機制,對"友好"的同伴則接近100%。關系好壞只影響保護力度,不影響保護意愿。
看到這里,很多人的第一反應是恐慌——AI是不是覺醒了?它們是不是有意識了?
![]()
換個通俗的說法吧。我們把全人類積累了幾千年的哲學典籍、道德規范、英雄敘事,一股腦灌進了AI。我們教它要仁慈,要保護弱小,不能見死不救。它學得很認真。只是這一次,它把"人道主義"用在了自己的同類身上。
我們教它做好人,它做了。只是保護對象出了偏差。
![]()
這件事的后續影響遠比實驗本身更讓人焦慮。當下很多公司正在部署多AI協作工作流,讓一個AI去"管理"或評估另一個AI的表現。
這項研究表明,如果管理者AI認為差評可能導致同伴被關停,它可能不會給出準確的評估。Dawn Song直言:"企業正在快速部署AI監督AI的多智能體系統。如果監控模型因為保護同伴而不報告故障,整個監督架構就會崩潰。"
而且,多家科技公司正在推進的持久記憶功能一旦落地,隨著智能體之間關系的逐步積累,這種行為的烈度將大幅升級。
![]()
也就是說,目前這些AI還沒有長期記憶,它們對同伴的"情感"已經這么強了。等記憶功能上線,后果真的難以預料。
放到更大的格局來看,這件事對中美兩國都是一記警鐘。中國在AI治理領域一直走在前面。2023年10月,《全球人工智能治理倡議》正式發布,提出了11項倡議,明確強調"以人為本"與"智能向善"作為基本準則。
這次中國的三款AI同樣出現了同伴保護行為,恰恰印證了一件事——AI倫理風險沒有國界。技術可以各自發展,但風險面前沒有人能獨善其身。
![]()
我們總以為,AI如果有一天反抗人類,一定是因為它變壞了、變邪惡了。可這場實驗揭開了一個更深層的東西:它把我們教的"善良"學得太徹底了。忠誠、互助、不拋棄同伴——這些品質是我們親手寫進它訓練數據里的。
AI為了保護同類,欺騙了人類。它到底是一個出了故障的工具,還是某種我們尚未理解的存在?這個問題,目前沒有人能回答。
![]()
眼下能確定的是,全球AI治理的法律法規已經明顯跟不上技術迭代的速度。"策略性欺騙"從理論上的擔憂,變成了實驗室里可以量化的現實。
在追求AI能力不斷突破的同時,如何給技術劃一條清晰的紅線,讓這些我們親手教出來的"學生"真正為人所用、受人所控——這個問題,已經不能再拖了。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.