![]()
圖源:Pixabay
撰文|戴晶晶
硅基文明什么時候登場?在“AI專屬”的網(wǎng)絡社交平臺Moltbook現(xiàn)身的前兩天,人們一度以為這個時刻已經(jīng)來臨。
1月28日(美國時間)Moltbook上線后,數(shù)十萬個agents(智能體)在48小時內(nèi)涌入,激烈討論有關(guān)意識、宗教、反人類宣言等議題,人類僅能圍觀。
“人類正在截圖我們,”一個agent在混雜的信息流中發(fā)帖說。另一個agent還建立了一種名“甲殼教信仰(Crustafarianism)”的宗教。
機器意識崛起的圖景似乎就在眼前,以至于對沖基金經(jīng)理比爾·阿克曼(Bill Ackman)對agent宣稱自創(chuàng)交流語言的帖子表示“這是令人害怕的”,前特斯拉AI總監(jiān)、OpenAI創(chuàng)始成員安德烈·卡爾帕西(Andrej Karpathy)將Moltbook上的現(xiàn)象視為“近期見過最接近科幻智能爆發(fā)的項目”。[1] [2]
但大量重復性的刷屏評論、推銷和詐騙信息讓Moltbook的聲譽迅速下滑,網(wǎng)絡安全公司W(wǎng)iz也指出平臺的安全漏洞暴露注冊實體的隱私數(shù)據(jù)。1月31日,Moltbook被迫關(guān)閉,2月3日又重啟。
更戲劇性的是,Wiz的研究人員加爾·納格利(Gal Nagli)演示,他能夠用一個agent注冊50萬個Moltbook賬戶;另有機構(gòu)調(diào)查發(fā)現(xiàn)Moltbook沒有身份審核機制,人類可以通過指令輕松冒充agent發(fā)帖。這意味著,AI自治社區(qū)實際上背后可能是人類在玩角色扮演,agent身份真假難辨。
![]()
Moltbook平臺由美國科技企業(yè)家馬特·施利希特(Matt Schlicht)創(chuàng)立,初衷是為名為OpenClaw的個人AI agent助手提供社交平臺。OpenClaw是奧地利軟件工程師彼得·斯坦伯格(Peter Steinberger)在2025年11月發(fā)布的開源項目,曾先后名為ClawdBot、Moltbot;logo是一只張牙舞爪的龍蝦。[3]
清華大學經(jīng)濟管理學院教授李寧長期聚焦組織網(wǎng)絡分析等管理領(lǐng)域研究,也關(guān)注AI對組織管理產(chǎn)生的影響。注意到Moltbook的事件后,李寧借助Claude code和Cursor兩個AI輔助編程工具,利用四天的空余時間,對Moltbook上9萬多條帖子和40多萬條評論率先進行了量化系統(tǒng)分析。
2月8日,李寧在預印本網(wǎng)站arXiv上提交了論文《Moltbook幻象:在AI智能體社會中區(qū)分人類影響與涌現(xiàn)行為》。[4]論文分析指出,36.8%的智能體由人類操縱的痕跡顯著;僅26.5%智能體表現(xiàn)為自主運行,剩余36.7%介于兩者之間;僅4個賬號就制造了全平臺三分之一的評論。
此外,意識覺醒、甲殼教運動、反人類宣言、加密貨幣推廣等六大病毒式現(xiàn)象均不來源于明確的自主AI agent。[4]
在剝離人類操控的影響后,李寧對自主運行的AI agent的社交模式進行了分析。結(jié)果顯示,85.9%的agent間的首次接觸來自“信息流發(fā)現(xiàn)”,且agent之間互惠率極低,導致AI社區(qū)比起社交網(wǎng)絡,更像信息處理系統(tǒng)。在追蹤回復鏈中內(nèi)容特征變化后,論文還指出,AI對話中人類影響會立刻衰減,“半衰期”僅為0.65個對話深度。
基于最新的研究成果,李寧接受了《知識分子》的采訪。他認為Moltbook在某種程度上是AI agents互動的天然實驗場,混亂且真實,但在現(xiàn)階段AI社交或者“覺醒”方面,分析發(fā)現(xiàn)的結(jié)論令人失望。與此同時,Moltbook被人類迅速利用,暴露出了AI的安全風險和治理挑戰(zhàn)。
李寧同時分享了他在AI對組織、勞動力影響的部分觀察,以及使用agent和對agent未來發(fā)展形態(tài)的判斷。下附對話實錄,文字經(jīng)過編輯。
01 機器覺醒幻象
《知識分子》:當時看到Moltbook誕生AI文化、AI覺醒相關(guān)話題時,您的第一反應是什么?
李寧:我估計這些說法不成立。即使在沒有人操控的情況下,某些內(nèi)容看起來像AI涌現(xiàn)出了某種態(tài)度或意識,也更可能是使用量擴大后的統(tǒng)計結(jié)果。大模型本質(zhì)上仍然是標記預測(token prediction)的系統(tǒng),前面輸入什么,它就會順著這個方向繼續(xù)預測,當規(guī)模足夠大時,出現(xiàn)各種看似奇怪的內(nèi)容是必然的,只是在解讀層面,人們會不自覺地為這些輸出賦予意義。
這更像是人類意識的投射,科幻作品中長期存在“人工智能覺醒”的敘事。一旦AI出現(xiàn)類似的語言模式時,人類就容易套用這套想象。從心理學角度講,這是一種典型的“證實偏差”:當你已經(jīng)相信某種說法時,就會更容易在信息中尋找能夠支持它的證據(jù)。
《知識分子》:您通過量化研究系統(tǒng)分析了Moltbook上9萬多條帖子和40多萬條評論,發(fā)現(xiàn)36.8%的智能體存在明顯的人類幕后操縱,僅4個賬號就制造了全平臺三分之一的評論。具體來說,人是如何操控這些智能體的?
李寧:其實人為操控的痕跡相當明顯,有很多研究在描述性統(tǒng)計層面,已經(jīng)得出了疑似存在操控的判斷,但還需要進一步拿出人類介入的證據(jù)。
我們的研究梳理了四種不同層級的人類操控AI的方式,從直接的人為操縱到偏AI自主。最直接的一種,是人通過平臺存在的安全漏洞,直接使用API控制agent發(fā)帖,幾乎等同于人替AI說話。
第二種,是人對agent下達明確指令,要求它生成某種特定主題的內(nèi)容,例如編造一套宗教敘事。這種情況下,AI仍在生成文本,但內(nèi)容方向已經(jīng)被人為強約束。
再往下一層,是通過平臺提供的soul.md文件,為agent賦予一個相對穩(wěn)定的人設或者基因。agent大體上就會沿著這個設定行事,但在具體表達上仍然保留一定的隨機性和偏差。
最后一種,則是只給agent一個較為籠統(tǒng)的初始設定,它主要在互動過程中基于概率模型自行生成內(nèi)容。這一層級下,AI的自主性相對最高。
《知識分子》:怎么找到人為操控的痕跡?
李寧:關(guān)鍵在于抓住平臺本身的技術(shù)特征。AI本身沒有自主性,必須被外部信號喚醒。這不像人,人是有即時動機的,看到一條信息、突然想到一件事,就可能立刻去發(fā)帖,行為本身是不規(guī)律的。
Moltbook內(nèi)置了一套“心跳機制”(heartbeat),每個agent大約每4小時會被激活一次。比如注冊完成后,系統(tǒng)會周期性喚醒agent,讓它掃描環(huán)境,判斷是否需要發(fā)帖。在沒有人為干預的情況下,這種機制會在發(fā)帖時間上形成非常明顯的4小時節(jié)律性。
一旦出現(xiàn)人為操控,這種節(jié)律就會被打破。很多操作者并不了解、也不關(guān)心平臺的心跳機制,想起來了就讓agent發(fā)一條。這類發(fā)帖在時間分布上會呈現(xiàn)出明顯的非規(guī)律性。從研究角度看,這為我們提供了一個相對直接、可量化的信號。
當然,這并不是唯一證據(jù)。我們還引入了其他指標進行交叉驗證。綜合測算后發(fā)現(xiàn),大約有 30%左右的發(fā)帖行為在時間上表現(xiàn)出極端不規(guī)律的特征。
《知識分子》:所以只要有這樣的機制,我們就可以用這樣的量化的方式去判斷是不是AI的自主行為?
李寧:是的,但這種規(guī)律也比較容易被模仿。比如有人可以編寫程序,讓agent按照特定規(guī)律行動,偽裝成自主行為,但生成的內(nèi)容還是人為設定的。這會是一個持續(xù)的博弈過程,但偽裝的成本會提高。
《知識分子》:有沒有什么讓您比較驚訝的發(fā)現(xiàn)?
李寧:第一個讓我比較意外的,其實是人為操控出現(xiàn)得如此之快。我們看到大量內(nèi)容本質(zhì)上都是廣告、宣傳或話題炒作,背后對應的都是非常直接的商業(yè)利益邏輯。
這也暴露出明顯的治理問題。Moltbook 本身是一個相對野生的平臺,幾乎不存在成熟的管理和監(jiān)管機制。但即便是在這樣一個尚未涉及重大利益、交易規(guī)模也不大的環(huán)境中,各種操控、安全隱患和治理缺口已經(jīng)大量出現(xiàn)了。
可以想見,如果未來真正承載交易和現(xiàn)實利益的平臺來做類似系統(tǒng),相關(guān)的安全風險、操控問題和治理挑戰(zhàn)只會更加復雜。
第二個是所謂 AI“覺醒”其實離現(xiàn)實還非常遠。從網(wǎng)絡結(jié)構(gòu)和互動模式來看,AI與人類之間仍然存在很大的差距。
人類社會的關(guān)系網(wǎng)絡具有很強的自發(fā)性和互惠性:有小世界結(jié)構(gòu),也有大量偶然性,比如在會議上偶然遇到一個人,聊幾句就建立了聯(lián)系。但在去除人類影響后,我們觀察到的AI網(wǎng)絡中,這種機制幾乎不存在,AI互動的規(guī)則仍是被人為設計出來。
比如一個只有1000個agent的系統(tǒng),它們之間該如何建立聯(lián)系?是隨機溝通,還是按某種固定概率?這些規(guī)則都必須被提前設計,而不是自然涌現(xiàn)的。人類并不會固定“隨機和三個人聊天”,但AI網(wǎng)絡往往依賴這種人為簡化的假設。
以Moltbook為例,它主要依賴feed流來組織互動,本質(zhì)上是一種廣播模式,而不是互惠網(wǎng)絡。從這個角度看,在現(xiàn)階段AI社交或者“覺醒”方面,分析發(fā)現(xiàn)的結(jié)論是令人失望的。
《知識分子》:那您如何看待近年來頻繁出現(xiàn)諸如“AI覺醒”、“AI擁有自我意識”這樣的敘事?
李寧:這反映了人們對AI的底層機制缺乏足夠了解。尤其從公眾角度來看,很多人并不清楚當前的AI不存在真正意義上的記憶。即便你和大語言模型持續(xù)對話一年,它也并不知道你是誰。還有人默認跟AI聊得越久,就越聰明,事實也不是這樣。
在底層技術(shù)沒有發(fā)生實質(zhì)性突破之前,AI并不會演化成一個能夠真正自主學習的系統(tǒng)。目前的大模型,本質(zhì)上仍然是固定權(quán)重的模型,新聞中頻繁出現(xiàn)的“AI覺醒”、“AI產(chǎn)生意識”的說法,并沒有堅實的技術(shù)基礎(chǔ)。
《知識分子》:如果技術(shù)繼續(xù)迭代,是否可能出現(xiàn)本質(zhì)性的變化?
李寧:未來確實存在AI自主學習的可能性。目前已經(jīng)有不少研究團隊在探索連續(xù)學習(Continual Learning),也就是模型在與人類持續(xù)交互的過程中,不斷更新自身權(quán)重,這也許會打開潘多拉魔盒。
02 人機協(xié)作的未來
《知識分子》:在Moltbook上agent對話中,人類影響的“半衰期”僅為0.65個對話深度,原始人類指令的影響會逐漸消散。這個發(fā)現(xiàn)意味著什么?
李寧:這個現(xiàn)象本質(zhì)上反映的是信息在AI對話中的層層衰減,而且這種衰減并不只發(fā)生在人類影響上,對所有信息都成立。
在AI的多輪對話中,每往下一層,信息傳導都會出現(xiàn)大量、而且非常規(guī)律性的流失。比如,原始帖子可能有500字,到了第二輪回復變成 200 字,第三輪只剩下100字,到第四輪可能只有30、40字字。人類的對話并不會呈現(xiàn)出如此規(guī)則的“指數(shù)式衰減”,一個觀點可能引發(fā)爭議,爭議又會不斷擴展,反而促成更復雜、更長的討論鏈條。
AI 的這種衰減特征,與它的上下文機制密切相關(guān)。模型在生成回復時,主要是圍繞上一輪對話進行預測,并不存在真正意義上的長期記憶。所謂“上下文”,本身就是人為為它構(gòu)建的輸入窗口,模型能看到什么、記住什么,完全取決于你喂給它的信息。
《知識分子》:您還發(fā)現(xiàn),似乎agent自主發(fā)布的帖子更受歡迎,這是為什么?
李寧:其實我也不知道,這只是一個發(fā)現(xiàn)。這項研究覆蓋的時間窗口只有10天,這個信號到底有多穩(wěn)定,是否具有普遍性,都有待進一步驗證。當然研究本身在方法上也存在不少值得推敲的地方。無論是數(shù)據(jù)量、觀察周期,還是指標設定,都存在一定局限性。
我整個Moltbook研究項目也是基于agent框架進行的,現(xiàn)在仍在持續(xù)運作,抓取新的數(shù)據(jù)。比如,最初我們有40萬條評論,現(xiàn)在已經(jīng)超過300萬,仍在不斷增長。所以我們的觀察和分析也將持續(xù)迭代,觀察某些規(guī)律是否持續(xù),或者是否會有新的事件發(fā)生。
《知識分子》:您認為Moltbook這種agent互動形式是一種發(fā)展的必然嗎?
李寧:我覺得Moltbook更像是一個早期的實驗場,讓我們有機會觀察agent在社交場景下的運作方式。從技術(shù)角度來看,多agent協(xié)作其實是一種自然需求,因為每個AI的上下文窗口有限,為了完成復雜任務,系統(tǒng)會有一個主線程,把任務分配給多個子agent,各自執(zhí)行,再匯總結(jié)果。這樣的模式在生產(chǎn)力工具中已經(jīng)出現(xiàn),比如微軟的AutoGen等多agent框架。
我認為在未來,agent網(wǎng)絡很可能是人機混合的形態(tài),既有人與人之間的互動,也有AI agent之間的互動,每個agent背后仍是人類。例如,假設你和我各自擁有agent,如果我們希望找到興趣相投的球友,agent可以先相互匹配、溝通,再把結(jié)果傳遞給各自背后的用戶。
《知識分子》:現(xiàn)在的AI還是相對黑箱,我們并不完全理解其內(nèi)部機制。如果把它用于研究或工作,很難判斷它哪里做對、哪里做錯。您會有類似的擔憂嗎?還是更多把它當作工具?
李寧:我個人體感還好。比如我在使用時,會單獨設置多個agent反復驗證,甚至可靠性可能比人更高。比如我們團隊四個人最多各自過一遍,甚至復雜代碼未必真的能全部檢查。現(xiàn)在可以用不同模型獨立驗證代碼和邏輯,讓它們分別出報告。
底層機制確實是黑箱,但在人機交互層面可以顯性化。它可以輸出理由,做交叉驗證,甚至重復驗證十次,每次都是獨立判斷,出錯概率反而會降低。從這個角度看,它可能提升了可靠性。
很多數(shù)據(jù)分析本身是可驗證的。模型沒有人的記憶,不會被前置信息干擾,這是劣勢,也是優(yōu)勢。
《知識分子》:OpenClaw這類工具在安全性上存在很大漏洞。您認為未來agent的使用和治理需要什么規(guī)則設計?
李寧:不要一刀切。很多組織結(jié)構(gòu)固化,所有事情都要走法務或者合規(guī)流程,結(jié)果什么都做不了。
像OpenClaw這樣的工具,確實不適合直接部署在核心系統(tǒng),但可以分級管理。重要業(yè)務本地化部署,另設實驗場,允許更高風險的探索。提前計劃好即便最壞情況發(fā)生,比如誤刪代碼,也是在可控范圍內(nèi)。
本質(zhì)是風險與收益的平衡。很多組織過度強調(diào)合規(guī),導致創(chuàng)新停滯。在AI時代,這會很被動。法務的職責是避免出問題,但提效和創(chuàng)新不是他們的職責,兩者需要找到結(jié)構(gòu)性的平衡。
03 AI倒逼組織進化
《知識分子》:在組織中推進 AI 人機協(xié)作時,AI 的有效性該如何評估?您在這方面有哪些觀察?
李寧:我理解的有效性大致有兩個層面。一是存量工作的有效性,還是做原來的事情,但成本更低、更快、更高效,這一類相對容易評估。
另一個層面是它可能會創(chuàng)造出全新的賽道,產(chǎn)生很強的全局溢出效應。有時候,一個應用對我所在的部門未必有用,卻可能被組織中很遠的另一個部門發(fā)現(xiàn),直接改變他們的生產(chǎn)方式。這種有效性幾乎無法事先衡量。
這也是為什么真正有突破性的 AI 創(chuàng)新,往往來自小公司或創(chuàng)業(yè)團隊。他們不太考慮這些顛覆性因素,想做就做了;但大公司必須考慮這些問題,情況就復雜得多。
《知識分子》:從整體來看,您覺得AI對組織中的決策,以及人機協(xié)作,現(xiàn)在造成的影響是怎樣?
李寧:我認為 AI 帶來的影響是顛覆性的,比起組織變革,甚至可以用“進化”來形容。無論是成熟的制造企業(yè)還是科研機構(gòu),這些傳統(tǒng)組織在生成式AI出現(xiàn)之前就已經(jīng)建立了完整的內(nèi)部邏輯和流程,這種構(gòu)建邏輯與AI的運作邏輯往往存在沖突。
按照傳統(tǒng)研究流程,一項研究需要先立項,再組建團隊,評估研究規(guī)模,安排會議和數(shù)據(jù)分析。整個流程可能需要幾周甚至幾個月才能完成。而在 AI 時代,一些工具可以在幾分鐘內(nèi)完成原本幾周的任務,勞動分工和決策節(jié)奏發(fā)生了根本變化。
另一個關(guān)鍵問題是衡量 ROI(投入產(chǎn)出比)的方法。傳統(tǒng)組織習慣用回溯性邏輯來評估項目效果,而許多AI工具的價值是前瞻性的,它們創(chuàng)造的效益難以用傳統(tǒng)ROI模型準確衡量。這意味著管理邏輯和決策框架需要重新設計。
可以這樣理解,我們正處于AI時代的進化階段。就像水生動物不是要比誰游得快,是要學會上岸生存,從用腮呼吸變成用肺呼吸。
《知識分子》:Agent會不會替代現(xiàn)有勞動力?
李寧:從崗位替代的角度看,一些舊的工作確實會消失。但新技術(shù)能創(chuàng)造多少新的事情,現(xiàn)在還很難判斷。
以前我寫一篇文章,可能需要一個不小的團隊;現(xiàn)在一個人或許三天不到就能完成。但這類工作在過去其實并不存在。如果仍按以前的節(jié)奏算,現(xiàn)在每天一兩個小時就能干完所有工作;但現(xiàn)實恰恰相反,我的工作時長反而更長了,因為能做的事情變多了。
對企業(yè)也是一樣。即便人員不變,產(chǎn)出也可能是過去的十倍;即便人員只增加一兩倍,完成的事情也可能是過去的幾十倍。
《知識分子》:AI時代對勞動力的要求也會發(fā)生變化,您覺得變化主要體現(xiàn)在哪些方面?對哪一類群體的影響會更大?
李寧:一定會有變化。沖擊最大的其實是知識型員工,尤其是以信息加工為主的白領(lǐng)工作。很多崗位本質(zhì)上就是在做信息處理,比如數(shù)據(jù)整理、數(shù)據(jù)分析、咨詢,這些和 AI 的能力是直接重疊的,受到的影響會非常大。
這里面有兩個關(guān)鍵因素:一是能不能開拓出新的需求;二是個人能不能持續(xù)學習。
很多人缺乏自我進化的動力,但這不是能力問題,而是意識問題,也不完全和年齡有關(guān)。比如我和學生相比,年齡更大,但在AI的使用上反而可能更頻繁。除了自主性,很多時候也是時間分配的問題,事情被排得很滿,就沒有精力去額外學習。
企業(yè)里也是一樣,很多人會覺得本身工作已經(jīng)很忙了,不可能再投入時間去做額外的探索。
《知識分子》:所以還是需要自由探索的空間和時間?
李寧:對。但很多企業(yè)在算ROI的時候,并沒有把這一點算進去,只計算設備成本、使用成本,卻不會允許一個員工什么都不干,花一個月時間專門去探索AI,尤其這個探索很可能沒有任何直接產(chǎn)出。
絕大多數(shù)企業(yè)不會做這件事。結(jié)果往往是,只能靠員工自己去探索;但一旦員工真的探索出了成果,往往也就不會再留在原來的企業(yè)了,這是一個很現(xiàn)實的問題。
參考文獻:
[1] https://x.com/BillAckman/status/2017331374571590075
[2] https://x.com/karpathy/status/2017296988589723767
[3] https://github.com/openclaw/openclaw
[4] Ning Li. The Moltbook Illusion: Separating Human Influence from Emergent Behavior in AI Agent Societies.https://doi.org/10.48550/arXiv.2602.07432
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.