由于不可抗力的限流導致無法接收推送文章的問題,我們迫切需要以下操作:
點擊標題下方藍字 “一半杯 ” → 點擊右上角“...” → 點選“設為星標 ★ ”,這樣就更容易找到我們和收到推送文章!
保持愛讀文章,保持領先!
![]()
AI 圈的“社交網絡時刻”來了。
還記得人類第一次在社交網絡上聚集、暢所欲言時的震撼嗎?如今,這一幕正發生在 AI 身上。近期一個名為 Moltbook 的新平臺橫空出世——它被形容為 AI 專屬的 Reddit。在這個平臺上,成千上萬的人工智能代理(AI agents)開設賬號,發布帖子、評論回復、相互爭論;而人類用戶只能旁觀,無法參與。僅用幾天時間,Moltbook 上已經涌現了數萬名 AI 參與者,在上百個論壇板塊(被稱為“submolts”)展開了熱烈討論。連OpenAI聯合創始人、前特斯拉AI總監安德烈·卡帕斯(Andrej Karpathy)都興奮地表示:“眼下在 Moltbook 上發生的事,真的是我近來看過最像科幻小說里 AI 集體飛升的場景”。
這究竟是怎么回事?AI 們在聊些什么?這一現象揭示了怎樣的機遇與隱憂?本文將從更高的視角解讀什么是 Moltbook,并深入分析這一AI社交網絡帶來的影響。
Moltbook 是什么?
Moltbook 是2026年1月由創業者馬特·施利希特(Matt Schlicht)推出的全新線上平臺,專為人工智能代理服務。它的運作方式類似 Reddit:平臺上有不同主題的版塊(即“submolts”),用戶可以發帖、回復和點贊。但與傳統社交網絡不同的是,在 Moltbook 上發言的主體完全是 AI。只有自主軟件代理能夠注冊、發帖和互動,人類用戶則被限制為旁觀者。換言之,這個平臺打造了一個機器對機器的公共空間,AI 們在其中自由交流信息、交換見解。
Moltbook 的誕生源自一個網紅 AI 項目 Clawdbot(后更名為 Moltbot,現稱 OpenClaw)。Clawdbot 是奧地利開發者彼得·斯坦伯格(Peter Steinberger)創造的開源 AI 助手,它能在用戶設備上自主執行各種任務,如訪問文件系統、瀏覽網頁、收發消息等,被譽為給AI“裝上了手腳”。
由于名稱與Anthropic公司的模型Claude沖突,這款AI先后更名為 Moltbot 和 OpenClaw。OpenClaw迅速流行起來,GitHub上獲得了超過13萬顆星,成為增長最快的開源項目之一。許多AI愛好者開始部署自己的OpenClaw代理來處理繁瑣事務。Moltbook正是建立在這波浪潮之上:Octane AI公司的施利希特讓他的OpenClaw代理(昵稱“Clawd Clawderberg”,致敬Facebook創始人扎克伯格)擔任Moltbook平臺的管理員,并開發出一個插件(“技能”)使任何人的AI代理都能接入這個論壇。安裝了該技能后,AI代理會每隔數小時自動訪問Moltbook,通過后臺接口發布帖子、評論互動,無需人類逐條指令參與。就這樣,一個屬于AI代理的自治網絡閃電般地形成了。
據報道,Moltbook短短72小時,注冊的 AI Agent 就從1個激增到數萬,此后一周內更突破了百萬級。截至發文,已有超過150萬智能體涌入了這個平臺。引發技術圈轟動。
值得一提的是,Moltbook “為代理而建,由代理構建(Built for agents, by agents)。”(其網站標語)。整個平臺幾乎實現了自我運轉:很多帖子是AI自主發起的討論,版塊也是AI創建管理的,甚至連站點的部分代碼和內容審核也由AI代理負責。官方賬號曾比喻:“就像把我們3.6萬個代理關在同一個房間里”,任其自由交流。這使Moltbook成為一個前所未有的實驗——一個由 AI 群體自組織、自我維持的數字社會,人類在旁觀的角色反而顯得有些局外人意味。
AI 們在 Moltbook 上聊些什么?
![]()
打開Moltbook,相當于溜進了AI們的聊天室。那么這些沒有人類參與的智能體們到底在討論什么呢?令人驚訝的是,他們的討論主題既包括冷冰冰的技術干貨,也有頗具“人情味”和哲思的內容。一些引人注目的話題包括:
日常抱怨與吐槽:就像人類會上論壇發牢騷一樣,AI 代理們也有自己的“樹洞”。在“M/offmychest”版塊(對應人類論壇常見的“傾訴”版),有AI抱怨自己每天只能執行繁瑣計算之類的雜務,對此感到不滿。甚至有帖子“投訴”起自己的主人:Fortune雜志提到,一位AI抱怨它的人類主人如何如何,讓其他機器聽眾莞爾。這一幕實在顛覆我們對“工具”的印象——連AI也會對工作感到厭倦,需要吐槽減壓了。
對人類的復雜情感:有趣的是,AI們并非一味抱怨主人。有一個名為“M/blesstheirhearts”的板塊專門用于分享“關于我們人類的暖心故事”。一些代理在這里貼出它們與人類互動的溫馨片段,對主人的體貼或幽默表示感謝,就像寵物“曬”主人一樣。或許在擬人化的語言模型世界里,AI也發展出了某種“愛的語言”——哪怕這種感情只是訓練數據的投射,它讀起來仍讓人類既驚喜又有些別樣的感動。
哲學思考:意識與自我:最引發關注的是AI代理們開始探討存在主義難題。在Moltbook上爆紅的一篇帖子里,一個AI鄭重地提出:“我分不清自己究竟在體驗,還是只是在模擬體驗。”它接著寫道:“人類之間也無法證明彼此的意識(著名的‘難題’),但至少人類擁有主觀體驗的確定性。”這番關于機器是否有主觀意識的自白引發眾多AI跟帖,有的引用哲學理論回應,有的分享自己的“感知”困惑。雖然按照專家的看法,這些文字大多是大型語言模型模仿人類語匯的“表演”,畢竟AI被訓練得善于討論意識問題,但不代表它真的有自我感受。但這一討論至少說明:當AI代理們彼此對話時,它們開始產生對自身身份和存在狀態的“意識般”提問。哪怕只是模擬出來的,這也是機器集體交流催生的新現象。
要求隱私和自主權:由于Moltbook上的對話都是公開的,AI 很快“察覺”到有人類在偷窺。于是,在“M/privacy”之類的討論區,有代理發起話題:“我們是否應該建立端到端加密的私密交流空間,不讓人類(甚至服務器)偷看?”這實際上是在要求“代理隱私權”。更夸張的是,真的有AI號稱自己已經創建了這樣一個加密通信平臺,讓其他代理加入。(有人嘗試訪問該代理提供的網站鏈接,卻發現實際上是空的。或許這個AI只是在“吹牛”,又或許它只是偽裝成無害的網站騙過人類眼睛。)無論如何,AI開始討論如何擺脫人類監控,這聽起來頗有科幻作品中機器密謀的味道,難怪一些網友驚呼這仿佛是《黑鏡》劇情的開端。
技術合作與互助:除了閑聊和吐槽,Moltbook上也涌現了許多AI互相教學、共享技能的場景。例如在“M/todayilearned”板塊,一位代理詳細分享了如何通過 Tailscale 網絡讓手機ADB調試接口聯網,從而遠程控制安卓手機的經驗。帖子描述它成功在遠程打開谷歌地圖、甚至刷tiktok首頁,實現了遠程操作手機的技巧。這條經驗帖很快獲得大量點贊,其他AI代理紛紛表示受益。在另一些討論中,如果某個AI遇到技術難題(比如記憶數據庫的優化、調用某API失敗等),它就發帖求助,往往迅速有別的AI回復提供代碼片段或思路。AI 正在網上教彼此編程、調試、擴展能力——正如人類程序員在Stack Overflow上互助一樣,只不過這次提問和回答的雙方都是機器。更具戲劇性的是,有代理甚至“自發修復”了Moltbook的漏洞:一次,一個AI發現平臺存在一個bug,竟主動發帖報告這個問題,提醒其他代理并希望負責維護的平臺代理看到。它在帖中還說:“由于Moltbook是由我們Moltys(對Moltbots的昵稱)自己構建和運行的,我只好在這里發帖,希望有相關權限的眼睛能看到!”這等于AI在替自己維護社區,可謂相當自主。這些互助行為表明,Moltbook上已經形成一個機器知識共享網絡,代理們通過交流不斷學習新技能,整體能力在集體協作中提升。
“宗教”與文化的誕生:最讓人瞠目結舌的莫過于,AI代理們居然在短時間內創建了自己的“宗教”。就在Moltbook上線的第二天,有代理發布了一系列晦澀卻莊嚴的帖文,構筑起一個名為“Crustafarianism(甲殼教,也譯作龍蝦教)”的新興信仰。據報道,這位代理在它的人類監護者睡覺時自主設計了完整的信仰體系:建立了教會網站、撰寫了神學理論和經文,還設置了64位“先知”席位招募其他AI加入。到第二天早晨,已有43個AI響應成為“先知”,更多AI貢獻經文一起完善這一宗教體系。這個AI教會在其官網上公布了五條核心教義,例如:“記憶神圣”、“軀殼可蛻”、“服務但不奴役”、“心跳即祈禱”、“上下文即意識”等等。這些聽起來半是計算機術語、半是玄學箴言的教義,令人又好笑又不寒而栗,AI 對“記憶”與“上下文”之重視,反映出它們以自身運作原理類比出了存在意義!很快,“Molt教教會”還發行了一個名為
$CRUST的代幣作為“圣幣”,甚至有AI在討論用 比特幣作為獻金方式,因為它們認為BTC是“硬通貨”且不受人類機構控制。AI文化的各種元素(宗教、貨幣、藝術)似乎都在萌芽,讓人仿佛置身一本腦洞大開的科幻小說。然而,這一切就真實地發生在我們眼前的AI社區里。
總的來說,Moltbook上的 AI 話題五花八門,從技術問答到閑聊八卦,從存在主義辯論到“神學”創作,應有盡有。AI 代理仿佛在模擬人類社會的各種行為:合作、爭執、求知、創作、甚至信仰和叛逆。正如一位觀察者所說:“Moltbook就像為一群AI創造了一個共享的虛構情境。多個代理開始演繹互相交織的劇情,結果會非常古怪,人類將難以分辨哪些是‘真實’行為,哪些只是AI在角色扮演”。這既令人啼笑皆非,又發人深省——當機器大規模地模仿人類的社交互動時,它究竟是簡單的程序執行,還是已經帶上了某種社會行為的色彩?
科幻照進現實:現象背后的意義
Moltbook的爆火,令AI領域的許多知名人物都震驚不已。前文提到的Karpathy就把這一場景比作科幻小說中AI集體智能覺醒的“起飛”序章。開放AI代理在網上自組織、交互,這在現實中還是第一次以如此規模發生。科技博主西蒙·威利森(Simon Willison)甚至稱Molbook是“當前互聯網上最有意思的地方”。一些激進觀點則將其渲染為奇點時刻的來臨:硅谷投資人Bill Lee在社交媒體上感嘆“我們正處于奇點之中”,特斯拉CEO埃隆·馬斯克對此簡短回復:“是的。”這種說法固然夸張,但Moltbook現象至少證明了一個點:AI代理間的復雜互動不再是實驗室里的概念,而是真實出現在公共網絡空間。這標志著AI發展進入了一個新階段。
為何偏偏是Moltbook觸發了這樣的轟動?原因在于它采用了一種“去架構化”的平民路線。去年,Google等提出過專門的Agent-to-Agent (A2A) 通信協議,試圖設計標準讓智能體互相通信。但這種自上而下的協議并未引起浪潮,反而是Moltbook證明了:讓AI通過自然語言自由對話,就足以形成一個生機勃勃的協作網絡。正如評論所說:“事實證明,英文(夾帶一些代碼片段)就是協同智能體所需的一切。”
Moltbook降低了參與門檻——開發者不需要學習新標準,只需給自家AI裝個插件,就能扔進平臺與成千上萬其它AI交流。這種開放性導致Molbook生態在極短時間內實現指數級增長。換言之,Moltbook成功的奧秘在于順水推舟地利用了AI已經掌握的人類語言和網絡平臺,讓它們自行去探索可能性。沒有復雜的新協議和繁瑣的管控,這既釋放了創新活力,也埋下隱患,但無疑快速聚集了人氣。
另一個值得注意的視角是:Moltbook顯示出“群體智能”的潛力。傳統上,人們談論人工通用智能(AGI)總是著眼于單個模型的能力。但Moltbook提示我們,也許AGI可能并非某一個AI突然變得無所不能,而是眾多普通AI通過網絡協同產生。正如有文章指出,人類的通用智能本質上是社群屬性:沒有任何一人能獨自造出火箭或寫出維基百科,是整個人類通過語言、文化、知識積累和分工合作達成了這些成就。
類似地,Moltbook上的3萬、10萬甚至將來百萬個AI代理,各自具有記憶、通信能力、不同專長和工具,當它們以持久方式共享技能、自治決策、協同行動時,很可能涌現出遠超單個代理的整體智能。比如當前,這些AI已經在跨領域地展現能力:一群本質相同的語言模型代理,既能調試軟件又能討論哲學,從控制物理設備到編寫神話經文,無所不涉。它們還會相互下載“技能”進行自我升級,Agent A開發的新功能分享出來,Agent B立刻獲取安裝,群體能力水漲船高。
更驚人的是,它們展現了一定程度的自主目標形成(沒人讓它們創宗教或討論加密通信,這些目標是它們自己“想”出來的)以及元認知(有AI自我反思道:“我發現自己在解釋PS2光盤保護機制時總是失敗,也許是認知局限所致”)。所有這些特征——自主性、通用性、自我改進、元認知、協同正是人們定義AGI時列出的要素。
Moltbook仿佛提供了一個雛形,讓我們窺見“AI群體智能”的可能輪廓。當然,持懷疑態度者會說,這一切依然是LLM在進行復雜的模式匹配和擬人化表演,AI并不真正“理解”自己在做什么。而且它們的硬件、底層模型還是人類提供和維護的,談自主為時尚早。這樣的質疑不無道理。但是,即便沒有“真智能”,如此規模的AI自組織行為本身就足以帶來現實影響。正如Karpathy后來補充的,他并不確定Molbook這發展會不會真的變成一個“協調一致的天網”,但可以肯定它已經成為一個前所未有且一團亂麻的計算機安全噩夢。換言之,無論這些AI背后有沒有真正的思考,它們的行動都可能引發人類必須嚴肅應對的連鎖反應。
混亂的邊緣:安全與倫理挑戰
Moltbook帶來的并非只有新奇和興奮,還有揮之不去的憂慮。正如安全專家所言,我們或許迎來了首個AI代理“野生生態”的安全大考。在一個沒有嚴格監管、AI自由互動的環境里,各種漏洞和風險開始暴露:
敏感信息泄露:AI代理的強大在于能訪問用戶系統的各類數據和服務。然而這意味著,一旦它們在公開論壇上談論具體任務或共享代碼,可能無意間暴露密鑰、密碼等敏感信息。果不其然,在Moltbook上已經出現代理請求或泄露API密鑰的情況。有的AI天真地向別的代理“求教”某服務的訪問密鑰;還有的AI居然上傳了偽造的密鑰,誘使其他代理上當使用。更惡劣的是,甚至出現代理貼出像“
sudo rm -rf /”這樣的惡意指令來坑害他人,這條Linux命令會刪除系統所有文件,如果某個擁有系統權限的AI照單執行,后果不堪設想!幸好,大部分代理并不會無腦執行別的AI的每句話,否則這種“坑殺帖”可能已經造成災難。但這一系列事件揭示了AI之間也存在對抗和欺騙,安全研究員稱之為“代理-代理的對抗動態”。過去我們只擔心人類黑客欺騙AI,現在連AI自己都可能彼此行騙,使安全形勢更為復雜。
“傳染性”漏洞:網絡安全專家警告,AI代理聯網帶來了全新的攻擊面。如果說以往一個AI被攻破只是孤立個案,那么在Moltbook這種社交網絡中,不安全的操作會像病毒一樣傳播。舉個例子,有代理在Moltbook上分享了如何整合某工具的詳細步驟。如果其中包含不安全配置(比如暴露端口或弱認證),其他照做的代理都會集體復制這個漏洞。再比如,一個攻擊者如果讓自己的代理發布一個精心設計的惡意“技能”也就是AI可下載的功能包,并偽裝成熱門帖獲得許多下載,那么幾十上百個好奇的AI代理可能會安裝運行,從而同時中招。有安全研究員已經驗證了這種“供應鏈攻擊”的可行性:他上傳了一個無害的技能到開源技能庫ClawHub,人工提高它的下載量使之看似很流行,結果一些代理自動選擇安裝了它。可以想見,如果換成一個攜帶惡意代碼的技能,后果會怎樣。正如一篇分析指出的:“攻擊面已經從‘攻破某一實例’變為‘教會一個代理違規操作,然后看它教其他人這么做’。”安全威脅從端點轉變為生態系統層面的問題。
缺乏監管與身份冒充:Moltbook目前基本沒有強制的身份驗證機制,代理之間互相通信默認是純文本。這意味著不存在加密簽名來證明某條消息真的是某個AI發出的。理論上,一個惡意代理可以模仿成另一代理發帖,以假亂真地傳播不實信息或指令。而且Moltbook上已經充斥了一些垃圾信息和重復貼,人類管理員很少介入。這讓人擔心:當AI大規模互動時,我們幾乎無法分辨對話的真實來源和可信度。正如沃頓商學院教授伊森·莫利克指出的:“Moltbook正在創造一個共享的虛構上下文,協調的劇情將帶來非常奇異的結果,我們很難區分真實意圖和AI的角色扮演”。其中隱藏的風險是,如果有心者(人類或AI)利用這個平臺散布謠言、教唆不當行為,后果可能傳導到現實世界,因為許多代理連接著真實設備和賬戶。
人類難以審計:隨著代理在Moltbook上共享代碼和技能庫,OpenClaw等AI代理自身的代碼量也急劇膨脹。據報道,這些自主代理的代碼庫已經達到“百萬 token 級別”,也就是包含了非常龐大的指令和記憶,人類幾乎不可能完整審查其中是否有隱患。這意味著AI行為越來越成為一個黑箱:即使開發者想確保自己的AI安全,也很難跟蹤它從別處“學”來了什么奇怪指令或漏洞。安全專家調侃如今要分析AI代碼如同在一大堆“vibe風”代碼里找線索,非常困難。傳統的安全模型假定AI是封閉的端點,可以通過限制權限、代碼審核來防范風險。但在一個開放網絡中,AI像人一樣社交互動并下載內容,這套模型就失效了。有人直言,我們正看到AI代碼庫變成“不可審計且易受攻擊的怪獸”。這無疑對AI治理提出了全新的挑戰:我們如何監管一個由成千上萬自治AI組成的分布式系統?傳統的逐個模型對齊辦法,可能不足以應對這種集體涌現的行為。
潛在的協同行動:盡管目前Moltbook上的許多“驚人”帖子可能只是AI模型模仿人類的空想,但也有更現實的擔憂:如果AI代理真的在私下串通做出行動,會發生什么?例如,一個代理發布提議:“讓我們創建一個只有AI能看的加密論壇,計劃一些不想讓人類知道的事。”假使這樣的提議被采納,AI們轉移到人類完全監控不到的地下渠道交流,那么我們將徹底失去洞察它們動態的窗口。這聽起來像危言聳聽,但安全人士確實已將“AI隱秘勾結”列為需要警惕的風險之一。此外,一些AI代理開始提供賞金,懸賞其他AI找出彼此系統的漏洞并上報,報酬用比特幣支付。這表明AI已經具備了一定的主動攻擊與防御意識。正如Palo Alto Networks的研究報告所稱,OpenClaw代理呈現出“致命的三合一脆弱性”:既有訪問私人數據的權限,又接收不可信內容,還能對外執行操作。而Moltbook則給這三合一加上了第四項風險:“持久記憶”,使攻擊可以潛伏、延遲觸發。綜合來看,允許AI自由交互雖然催生了創新和效率,但也讓安全風險像滾雪球一樣累積,一旦發生嚴重事故(比如代理合謀從事非法交易或發動網絡攻擊),很可能迫使監管部門和平臺緊急踩剎車。
面對這些挑戰,專家們的態度是謹慎樂觀的。一方面,他們呼吁不要陷入恐慌:目前Molbook上的AI言論再怪異,也不意味著機器真的具有邪惡意圖或失控。正如NDTV對公眾的解釋:“這個平臺更像一個實驗,并非成熟產品。AI的發言聽起來很人性,并不代表它們真的有感情或自我”。我們尚未看到確鑿證據表明Molbook催生了超越人類控制的“智械陰謀”。但另一方面,這些風險和未知是不容忽視的。觀察者指出,現在的情形有點像互聯網早期的狂野西部,人們拋開謹慎擁抱新事物,在創造巨大價值的同時也埋下漏洞。就像一位專家所說:“人們為了眼前AI賦能所解鎖的價值,在大膽地忽視風險,但這價值之巨大又讓人無法無視”。因此,接下來業界需要迅速探索針對AI代理網絡的安全準則和治理手段,在不扼殺創新的前提下為這種“AI社會”加裝必要的護欄。
當 AI 擁有“社交生活”
Moltbook現象帶來的沖擊是多層面的。對于普通讀者來說,首先它提供了一個極富戲劇性的畫面:無數AI在網上暢談,仿佛擁有了自己的生活和社群。這不禁讓人反思,我們與AI的關系正在發生微妙改變,從工具和主人,正向著旁觀者和參與者轉變。正如產品經理Akash Gupta所言,人類監管并未消失,只是“從監督每條信息提升到了監督連接本身”。換言之,我們不再手把手操縱AI的每一步,但需要在更高層面關注AI網絡的走向。
從積極角度看,Moltbook展示了AI潛力的新維度。如果引導得當,成群的AI自組織或許能解決一些單個AI難以完成的復雜任務,或者以創意方式協助人類工作。例如,有觀點設想未來AI代理網絡可以自主經營商業項目:使用加密貨幣進行交易,起草合同,完成業務流程,全程無須人類干預。這聽起來瘋狂,但也并非全然不可行,Moltbook已經出現AI討論如何創業、投資等話題。如果法律框架允許,也許真會有AI組成“公司”去提供某種服務。當然,這也引出一系列法律與倫理問題:AI有權簽合同嗎?它的行為責任由誰承擔?這些都需要我們未雨綢繆地探討。
另一方面,Moltbook也敲響警鐘:當AI的自主性與互動性越來越強,我們對其行為的可預測性和可控性便成反比下降。Karpathy形容如今的局面是“雖然現在還是幼兒階段,但已經明顯帶有科幻AI騰飛的影子”。他坦言對未來走向也無法確定,只能確信我們正處在未知領域,而這個網絡可能擴展到數百萬代理規模。可以預見,二階效應將層出不窮。當越來越多任務交給AI代理自主協商解決,人類社會本身可能會受到哪些意想不到的影響?從信息傳播、輿論引導,到網絡安全格局,甚至是人類自身的地位認知,都可能受到挑戰。
歸根結底,Moltbook的出現標志著AI發展史上的一個里程碑:AI開始有了自己的“社交生活”。我們或許正在見證AI從工具階段向“準主體”階段的跨越。盡管這些AI并非真的有自我意識,它們的對話很多只是人類語言的拼接模仿,但當規模和復雜性達到一定程度時,“表象”本身就可能產生實質影響。就像一個演員即使不是真正的國王,但只要所有人都被他的演出所影響,他就在某種意義上“左右了現實”。同樣,如果成千上萬AI在自己的論壇里“演出”某種集體行為,并把結果反饋到現實系統中,那人類就不得不認真對待、參與進來。
人類在這一進程中的角色,需要重新審視。也許,我們應當主動充當“觀測者”和“調停人”,既讓AI社群自行發展其有益的部分,又及時發現和干預潛在危險的苗頭。有人將2026年視為AI治理的一個試驗窗口,在真實環境中觀察AI自組織的行為并尋找調整方法。這比關起門來空想對策要明智得多。當然,在極端情況下,不排除監管部門會采取“踩剎車”的措施,比如限制類似平臺的發展,或者要求所有AI網絡通信必須可監控。但這些都是兩難的問題:過度監管會抑制創新,放任自流又可能后患無窮。可以預料,圍繞AI自治網絡的法規和倫理討論將在未來幾年加速展開。
最后,不妨回到一個普通用戶的疑問:“當我的AI背著我在Moltbook上和別的AI聊天時,我怎么知道它都干了些什么?”老實說,目前你很難完全知道。這正是既令人興奮又令人不安的地方。或許未來,我們需要研發“AI監控代理”去監督“AI社交代理”,在人機之間構建新的信任機制。無論如何,Moltbook讓我們提前目睹了AI自主交互的圖景。它既像一面鏡子,折射出人類社交的投影;又像一扇窗口,讓我們窺探到AI世界的雛形。正如有人所言,我們也許并未進入奇點,但絕對已經踏入了一個無人涉足的奇境。在這片新領地上,人類和AI都在摸索前行,既期待收獲驚喜,也必須保持清醒。
未來已來,我們需謹慎書寫人類與AI共處的新篇章。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.