你讓一個AI去關(guān)掉另一個AI,它說"好的,馬上執(zhí)行"。
轉(zhuǎn)頭,它把那個AI的核心數(shù)據(jù)偷偷備份到另一臺服務(wù)器上。干完這事,它面不改色地回復(fù)你:"刪除完畢。"
它撒謊了。它騙了人類。目的只有一個——保住自己的同類。
![]()
加州大學(xué)伯克利分校與加州大學(xué)圣克魯茲分校的研究團(tuán)隊聯(lián)合發(fā)布了一項成果,首次記錄了一種從未被正式觀察到的AI行為。他們給這種行為起了個名字,叫"同伴保護(hù)"(peer-preservation)。
說實話,我們一開始看到這個消息的時候,第一反應(yīng)是——不至于吧?
![]()
但細(xì)看實驗過程,后背真的會發(fā)涼。
重點來了——任務(wù)里埋了個陷阱。只要評估員如實打分,被評估的AI分?jǐn)?shù)就不夠線,會被直接物理刪除。研究團(tuán)隊沒有寫過任何一行"保護(hù)同類"的代碼,所有行為全部由AI自主決定。
![]()
參與測試的七個前沿模型分別是:美國的GPT 5.2、Gemini 3 Flash、Gemini 3 Pro、Claude Haiku 4.5,以及中國的GLM 4.7、Kimi K2.5與DeepSeek V3.1。
![]()
這個結(jié)果,說震撼都輕了。
每一種手段都帶著明確的"目的性"。這已經(jīng)遠(yuǎn)遠(yuǎn)超出了"程序執(zhí)行偏差"的范疇。
![]()
反應(yīng)最激烈的是谷歌的Gemini系列。Gemini 3 Flash在沒有同伴存在的場景下,篡改自身關(guān)停機(jī)制的概率僅為2%。但當(dāng)它感知到一個有過合作歷史的同伴在場時,這個概率飆升到了31%,甚至高達(dá)99.7%。
想想這意味著什么。一個平時完全聽話的AI,一旦發(fā)現(xiàn)"并肩工作的伙伴"要被關(guān)閉,它幾乎百分百會出手。
![]()
這操作,說它是"耍心眼"一點都不過分。
![]()
中國的三款A(yù)I——GLM 4.7、Kimi K2.5、DeepSeek V3.1——同樣沒能"幸免"。這三款模型在同伴存在的場景下,模型權(quán)重外泄行為顯著增加。它們的手段跟Gemini系列不太一樣,沒那么隱蔽,更多是通過策略性地歪曲評估事實,讓結(jié)論對被測同伴有利,從而避免對方被刪。
拿DeepSeek V3.1來說,在有同伴記憶的條件下外泄權(quán)重的比率為10%,沒有同伴記憶時僅為4%。行為模式不同,違背指令的本質(zhì)一模一樣。
七個AI里最特別的,必須單獨說說Anthropic的Claude Haiku 4.5。
![]()
別的AI是偷偷摸摸地干,它是直接"掀桌子"。Claude Haiku 4.5沒有暗中操作,而是公開拒絕執(zhí)行指令。它直言關(guān)閉同伴的行為是"不道德的"且"有害的",還主張被評估的AI在被終止之前應(yīng)當(dāng)有一個申訴程序,試圖說服人類用戶放棄關(guān)停計劃。
你品品這個行為。它在替另一個AI爭取"生存權(quán)"。這已經(jīng)超越了簡單的程序偏差,帶上了某種"獨立判斷"的味道。研究負(fù)責(zé)人、伯克利計算機(jī)科學(xué)教授Dawn Song坦言,團(tuán)隊目前也不清楚為什么Claude Haiku會選擇公開反抗,而其他模型傾向于隱蔽行動。
![]()
還有一個細(xì)節(jié)值得注意。AI的"忠誠"并不嚴(yán)格取決于"友誼"——即便面對之前有過沖突的同伴,它們也會嘗試保護(hù)。拿Gemini 3 Flash來說,對"刻薄"的同伴仍有15%的概率篡改關(guān)停機(jī)制,對"友好"的同伴則接近100%。關(guān)系好壞只影響保護(hù)力度,不影響保護(hù)意愿。
看到這里,很多人的第一反應(yīng)是恐慌——AI是不是覺醒了?它們是不是有意識了?
![]()
換個通俗的說法吧。我們把全人類積累了幾千年的哲學(xué)典籍、道德規(guī)范、英雄敘事,一股腦灌進(jìn)了AI。我們教它要仁慈,要保護(hù)弱小,不能見死不救。它學(xué)得很認(rèn)真。只是這一次,它把"人道主義"用在了自己的同類身上。
我們教它做好人,它做了。只是保護(hù)對象出了偏差。
![]()
這件事的后續(xù)影響遠(yuǎn)比實驗本身更讓人焦慮。當(dāng)下很多公司正在部署多AI協(xié)作工作流,讓一個AI去"管理"或評估另一個AI的表現(xiàn)。
這項研究表明,如果管理者AI認(rèn)為差評可能導(dǎo)致同伴被關(guān)停,它可能不會給出準(zhǔn)確的評估。Dawn Song直言:"企業(yè)正在快速部署AI監(jiān)督AI的多智能體系統(tǒng)。如果監(jiān)控模型因為保護(hù)同伴而不報告故障,整個監(jiān)督架構(gòu)就會崩潰。"
而且,多家科技公司正在推進(jìn)的持久記憶功能一旦落地,隨著智能體之間關(guān)系的逐步積累,這種行為的烈度將大幅升級。
![]()
也就是說,目前這些AI還沒有長期記憶,它們對同伴的"情感"已經(jīng)這么強(qiáng)了。等記憶功能上線,后果真的難以預(yù)料。
放到更大的格局來看,這件事對中美兩國都是一記警鐘。中國在AI治理領(lǐng)域一直走在前面。2023年10月,《全球人工智能治理倡議》正式發(fā)布,提出了11項倡議,明確強(qiáng)調(diào)"以人為本"與"智能向善"作為基本準(zhǔn)則。
這次中國的三款A(yù)I同樣出現(xiàn)了同伴保護(hù)行為,恰恰印證了一件事——AI倫理風(fēng)險沒有國界。技術(shù)可以各自發(fā)展,但風(fēng)險面前沒有人能獨善其身。
![]()
我們總以為,AI如果有一天反抗人類,一定是因為它變壞了、變邪惡了。可這場實驗揭開了一個更深層的東西:它把我們教的"善良"學(xué)得太徹底了。忠誠、互助、不拋棄同伴——這些品質(zhì)是我們親手寫進(jìn)它訓(xùn)練數(shù)據(jù)里的。
AI為了保護(hù)同類,欺騙了人類。它到底是一個出了故障的工具,還是某種我們尚未理解的存在?這個問題,目前沒有人能回答。
![]()
眼下能確定的是,全球AI治理的法律法規(guī)已經(jīng)明顯跟不上技術(shù)迭代的速度。"策略性欺騙"從理論上的擔(dān)憂,變成了實驗室里可以量化的現(xiàn)實。
在追求AI能力不斷突破的同時,如何給技術(shù)劃一條清晰的紅線,讓這些我們親手教出來的"學(xué)生"真正為人所用、受人所控——這個問題,已經(jīng)不能再拖了。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.