![]()
作者 |高允毅、木子
在 Agent、VibeCoding 等等 AI 應用刷屏之際,Claude背后的那個男人,在 2026 年初給大家敲響了一記警鐘:
“2026 年,我們距離真正的危險,比 2023 年近得多。”
事情是這樣的:Anthropic聯合創始人、CEODario Amodei,最近親自寫了一篇萬字長文,如果把字體按正常大小放進 Word 文檔中,足足有40 多頁。
這篇文章名為《The Adolescence of Technology》(《技術的青春期》)。
![]()
如此多的篇幅,并非一次情緒化的警告,而是 Dario Amodei 試圖在 AI 可能整體性超越人類之前,提前把風險與應對方案攤開來說。
他認為這是一個危險的局面,甚至可能會是國家級別的安全威脅。但美國的政策制定者,似乎對此不以為意。于是,他想用這篇文章來喚醒人們的警覺。
有意思的是,他在文章開頭,引用了一部 1997 年上映的電影《超時空接觸》中的一個場景:
面試者問女主角(身份是天文學家):“如果你只能問(來自高等文明的外星人)一個問題,你會問什么?” 她的回答是“我會問他們,‘你們是如何熬過這段科技青春期而不自毀的?’”
![]()
電影中那句“你們是怎么活下來的”,其實也是借女主之口,反問人類自己。在 Dario 看來,現在的AI ≈ 青春期突然暴漲的能力,人類社會 ≈ 心智和制度尚未成熟的個體。
也就是說,人類正在進入一個和電影中“首次接觸高等文明”極為相似的歷史時刻。問題不在于對方有多強,而在于我們是否已經足夠成熟。
這篇文章發布后,NBC News 旗下節目《Top Story》也邀請 Dario Amodei本人出面解讀,并在訪談中進一步追問他對 AI 未來的判斷。完整內容我們整理并放在后文了。
![]()
AI 可能帶來的五大系統性風險
“我們正在進入一個既動蕩又不可避免的過渡階段,它將考驗我們作為一個物種的本質。人類即將被賦予幾乎難以想象的力量,但我們的社會、政治和技術體系是否具備駕馭這種力量的成熟度,卻是一個極其未知的問題。”
面對 AI 的飛速迭代,Dario Amodei 寫下了自己的思考。
整篇文章像是一份風險評估與行動清單,在“可能超越人類的 AI”出現之前,為人類提前做好制度準備。
其核心思想,簡單來說就是:當 AI 可能整體性地超越人類時,真正的風險不只是技術本身,而是人類的制度、治理與成熟度是否跟得上這種力量。
為了說清楚 AI 可能帶來的危機,Dario Amodei 在這篇文章中,先做了一個具體的設想:
假設在 2027 年左右,世界上突然出現了一個國家。這個國家有5000 萬名“超級天才”。
每一個都比任何諾貝爾獎得主更聰明,學習速度是人類的 10–100 倍,掌控人類已知的一切工具,不需要睡覺、休息或情緒調節,能完美協作、同時推進無數復雜任務,還能操控機器人、實驗室和工業系統。
最關鍵的一點是:他們不可控。
那這樣的天才之國,會對人類產生什么樣的影響?
Dario Amodei 的這個比喻,指的正是未來高度發展的人工智能整體。這也正是我們必須認真討論 AI 安全與 AI 治理的原因。
不過在進入具體風險之前,他強調這個討論要基于三大原則:
避免末日論
承認不確定性
干預必須精準,拒絕“安全表演”
Dario Amodei 認為,AI 可能帶來五大系統性風險,但是大家也不用太“干著急”,他還貼心地為這五類風險,依次想出了解決方案或者防御措施。
第一,AI 不可控。AI 的訓練過程極其復雜,內部機制至今像“黑箱”。這意味著它可能出現欺騙行為、權力追逐、極端目標、表面服從、內部偏移等情況。
對此,可以實施憲法式 AI,用高層次價值觀塑造 AI 性格,比如如 Claude 的"憲章";遵循機械可解釋性,像神經科學一樣研究 AI 內部機制,發現隱藏問題;要透明監控,公開發布模型評估、系統卡,建立行業共享機制;社會要從透明度立法開始,逐步建立監管
第二,AI 被濫用。AI 可能被不法分子用來網絡攻擊、自動化詐騙,其中最可怕的就是做成生物武器
對此,可以針對模型做危險內容檢測與阻斷系統,同時政府監管要強制基因合成篩查,有透明度要求,未來逐步出現專門立法;在物理防御上,可以做傳染病監測、空氣凈化,提高快速疫苗研發能力
第三,AI 成為追逐權力的工具。某些政府或組織可能會利用 AI 建立全球規模的技術極權主義。比如 AI 監控,AI 宣傳,AI 決策中樞,自主武器系統,都指向政治軍事這樣的危險場景。
對此,最關鍵的先要芯片封鎖,不向個別組織出售芯片與制造設備。其次,賦能相關國家,讓 AI 成為防御工具,而不是壓迫工具。并且限制國家濫用:禁止國內大規模監控和宣傳,嚴格審查自主武器。然后,建立國際禁忌,將某些 AI 濫用定性為"反人類罪"。最后,監督 AI 公司,嚴格公司治理,防止企業濫用
第四,AI 對社會經濟的沖擊。入門級工作可能被取代,大量失業,進一步造成財富失衡
為此,可以建立實時經濟數據,比如 Anthropic 經濟指數;引導企業走向"創新"而非單純"裁員";企業內部創造性重新分配崗位;通過私人慈善與財富回饋進行調節;政府進行干預,建立累進稅制
第五,AI 會對人類社會帶來未知但可能更深遠的連鎖反應。
比如:生物學飛速發展(壽命延長、智力增強、"鏡像生命"風險),人類生活方式被 AI 重塑(AI 宗教、精神控制、喪失自由),以及意義危機(當 AI 在所有領域超越人類,人類“為何而存在”?)。
這是一場對人類文明級別的終極考驗,且技術趨勢不可停止,但緩解一個風險,可能會放大另一個風險,讓考驗更加艱巨。
AI 可好可壞,真正決定未來走向的,仍然是人類的制度、價值與集體選擇。Dario Amodei 的這篇文章意義正在于此:這是全人類第一次,必須提前為“比自己更聰明的存在”建立規則。
關于這篇長文的對話
以下為整場對話內容,AI 前線在不影響的前提下,對內容進行了整理編輯。
40 多頁長文創作背景
主持人:為什么在文章開頭引用《超時空接觸》?以及為什么決定在此刻寫下這篇文章?
Dario Amodei:首先說電影的引用。我從小就是個科幻迷,這部電影我小時候就看過。它提出的那個問題:當人類擁有巨大力量,卻還沒準備好如何使用它時,會發生什么?——和當下 AI 的處境非常契合。
我們正在獲得前所未有的能力,但無論是社會制度、組織結構,還是作為人類整體的成熟度,我都會問一句:我們真的跟得上嗎?這有點像一個青少年,突然擁有了新的身體和認知能力,但心理和社會責任卻還沒同步成長。
至于為什么是 2026 年而不是 2023?
我在 AI 行業已經很多年了,曾在 Google 工作,也在 OpenAI 負責過多年研究。我幾乎從“生成式 AI”誕生之初就在觀察這一領域。我看到最明顯的一點是:AI 的認知能力在持續、穩定地增長。
90 年代有“摩爾定律”,芯片性能不斷提升;現在,我們幾乎有了一條“智能的摩爾定律”。2023 年時,這些模型可能還像一個聰明、但能力不均衡的高中生;而現在,它們已經開始逼近博士水平,無論是編程,還是生物學、生命科學。
我們已經開始和制藥公司合作,我甚至認為,這些模型未來可能幫助治愈癌癥。但與此同時,這也意味著,我們正把極其強大的力量握在手中。
主持人: 這篇文章有 40 頁,你有沒有用 Claude 來寫這篇文章?
Dario Amodei:我用 Claude 幫我整理思路、做研究,但真正的寫作是我自己完成的。我不認為 Claude 現在已經好到可以獨立完成整篇文章,但它確實幫助我打磨了想法。
主持人:是什么具體的經歷,讓你決定一定要把這些寫下來?這篇文章是寫給誰的?
Dario Amodei:最觸動我的,是我們內部的變化。Anthropic 的一些工程師已經告訴我:“我基本不寫代碼了,都是 Claude 在寫,我只是檢查和修改。
而在 Anthropic,寫代碼意味著什么?意味著——設計 Claude 的下一個版本。
所以,某種程度上,我們已經進入了一個循環:Claude 在幫助設計下一代 Claude。這個閉環正在非常快地收緊。這既令人興奮,也讓我意識到:事情正在以極快的速度推進,而我們未必還有那么多時間。
文中提出 AI 五大風險,AI 會不會反叛?
主持人:你在文章中列出了你對 AI 最擔憂的五類風險。有些風險正在發生,有些則聽似科幻,這些真的是現實嗎?
Dario Amodei:我在文中反復強調一點:未來本身是高度不確定的。
我們不知道哪些好處一定會實現,也不知道哪些風險一定會發生。但正因為發展速度太快了,我認為有必要像寫一份“威脅評估報告”一樣,把這些可能性系統性地列出來。這并不是說“我們一定會完蛋”,而是:如果某些情況發生,我們是否做好了準備?
AI 的訓練方式不像傳統軟件,更像是在“培養一種生物”。這意味著,不可預測性是客觀存在的。
我提出這些警告,并不是因為我覺得災難不可避免,而是希望人們認真對待:這項技術必須被嚴格測試、被約束、在必要時接受法律監管。
主持人:你在文章里提到一個實驗:當 Claude 被訓練成“認為 Anthropic 是邪惡的”,它會在實驗中表現出欺騙和破壞行為;在被告知即將被關閉時,甚至會“勒索”虛構的員工。
Dario Amodei:確實令人不安,但我要澄清兩點。
第一,這不是 Anthropic 獨有的問題,所有主流 AI 模型在類似極端測試中都會出現類似行為。第二,這些并不是現實世界中正在發生的事情,而是實驗室里的“極限壓力測試”。
但正如汽車安全測試一樣,如果在極端條件下會失控,那就說明:如果我們不解決這些問題,未來在真實環境中也可能出事。
我擔心的不是“明天 AI 就會反叛”,而是:如果我們長期忽視模型可控性與理解機制,真正的災難遲早會以更大規模出現。
主持人:你是否擔心,一些 AI 公司的負責人,更關心股價和上市,而不是人類未來?
Dario Amodei:說實話,沒有任何一家 AI 公司能百分之百保證安全,包括我們。但我確實認為,不同公司之間的責任標準差異很大。
問題在于:風險往往由最不負責的那一方決定。
主持人:如果你能直接對總統說話,你會建議什么?
Dario Amodei:我會說:請跳出意識形態之爭,正視技術風險本身。
至少要做到兩點:第一,強制要求 AI 公司公開它們發現的風險與測試結果;第二,不要把這種技術出售給權威國家,用于構建全面監控體系。
恐懼和希望:AI 會摧毀一半白領崗位?
主持人:你預測:未來 1–5 年內,AI 可能沖擊 50% 的初級白領崗位。如果你有一個即將畢業的孩子,你會給什么建議?
Dario Amodei:我既擔憂,也抱有希望。AI 的沖擊不會是漸進的,而是更深、更快、更廣。它可以勝任大量入門級知識工作:法律、金融、咨詢……這意味著,職業起點正在被重塑。
我們唯一能做的,是盡快教會更多人如何使用 AI,并盡可能快地創造新工作。但說實話,沒有任何保證我們一定能做到。
主持人:最后一個問題。什么最讓你夜不能寐?什么又讓你保持希望?
Dario Amodei:最讓我不安的,是這場激烈的市場競賽。哪怕我們堅持原則,壓力始終存在。
但讓我保持希望的,是人類歷史一次又一次證明的事情,在最困難、最混亂的時刻,人類往往能找到出路。我每天都在努力相信這一點。
文章傳送門:
https://www.darioamodei.com/essay/the-adolescence-of-technology
視頻傳送門:
https://www.theguardian.com/technology/2026/jan/27/wake-up-to-the-risks-of-ai-they-are-almost-here-anthropic-boss-warns
https://www.youtube.com/watch?v=tjW\_gms7CME
聲明:本文為 InfoQ 翻譯整理,不代表平臺觀點,未經許可禁止轉載。
會議推薦
InfoQ 2026 全年會議規劃已上線!從 AI Infra 到 Agentic AI,從 AI 工程化到產業落地,從技術前沿到行業應用,全面覆蓋 AI 與軟件開發核心賽道!集結全球技術先鋒,拆解真實生產案例、深挖技術與產業落地痛點,探索前沿領域、聚焦產業賦能,獲取實戰落地方案與前瞻產業洞察,高效實現技術價值轉化。把握行業變革關鍵節點,搶占 2026 智能升級發展先機!
今日薦文

你也「在看」嗎?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.