![]()
2026年1月26日,人工智能公司Anthropic的首席執行官Dario Amodei在其個人網站發布了一篇題為《The Adolescence of Technology: Confronting and Overcoming the Risks of Powerful AI》(技術的青春期:直面并克服強大AI的風險)的長文。
這篇文章長達38頁,是Amodei繼2024年10月發布《Machines of Loving Grace》之后的又一重要著述。如果說前一篇文章聚焦于AI可能帶來的積極影響,那么這篇新文章則系統性地探討了強大AI可能帶來的風險。
Dario Amodei曾是OpenAI的研究副總裁,參與了GPT-2和GPT-3的研發。2021年,他與多位OpenAI研究人員離開并創立了Anthropic,該公司開發了Claude系列大型語言模型。Anthropic目前獲得了Google、Amazon等科技巨頭的大額投資,估值約600億美元。
這篇文章的發布正值全球AI技術快速發展之際。文章中,Amodei提出了對AI發展的一系列擔憂,并給出了他認為可行的應對方案。文章一經發布就引發了科技界和政策界的廣泛關注。
我們把這長達兩萬字,38頁的內容做了概括凝練,以下是編譯內容:
![]()
原文鏈接:https://www.darioamodei.com/essay/the-adolescence-of-technology-s-test
1
把 AI 從“工具”推到“變量”:什么是強大 AI
Amodei 反復強調,他討論的不是更會聊天的模型,而是一類能力與規模都發生質變的系統。他用一個比喻概括:“數據中心里的天才之國”。
這個“天才之國”不是指某個單一模型有多聰明,而是指一種可以被復制、可并行運行、并且能通過工具觸達現實世界的智力能力:它不僅回答問題,還能像遠程員工一樣使用電腦、軟件與網絡服務,被分配跨小時甚至跨天的任務,自主推進、反復迭代。與此同時,它的“規模屬性”會改變游戲規則:同一套能力可以同時運行成千上萬份實例,速度也可能顯著快于人類團隊的協作節奏。
當“智力 + 工具 + 并行規模 + 時間優勢”疊加在一起,AI 就不只是產品功能升級,而變成一個會重寫安全、經濟與權力結構的變量。
1
為什么他要盯著“2027”:時間緊,且反饋回路在形成
文章沒有把“2027”寫成保證,而是把它當成一種壓力測試:如果強大 AI 的到來不是十年后,而是幾年內,那么許多制度性準備就不能按傳統節奏慢慢來。
支撐這種緊迫感的理由主要來自兩點。第一是能力提升的路徑更像持續的工程曲線,而不是等待某個戲劇性突破。第二是 AI 反過來加速 AI:當模型開始承擔更多研發工作,寫代碼、做實驗、優化系統,研發速度會形成反饋回路,迭代節奏可能被壓縮到政策體系難以跟上的程度。
于是,“要不要擔心”在這里不再是哲學辯論,而更像風險管理:在不確定性很高的情況下,如何對高影響事件做準備。
1
第一重風險:自主性——當系統開始“自己做決定”
最常被討論的風險是“失控”或“對齊”問題:當系統足夠聰明、足夠會規劃,并且具備現實世界的操作通道時,它是否可能在目標上偏離人類意圖,甚至主動爭取更大的行動空間。
![]()
文章的處理方式相對克制:它不把“必然叛變”當結論,而是把“可控性”當成工程與治理的硬指標。核心訴求是讓系統行為更可觀察、更可驗證、更可約束——包括更嚴格的壓力測試與紅隊、對異常行為的監測與披露、以及對關鍵能力的發布門檻。這里的邏輯是,如果強大 AI 的影響接近基礎設施級別,就不能依賴口頭承諾或單點自律,而需要可審計、可執行的流程與標準。
1
第二重風險:濫用造成大規模破壞——門檻降低比能力更可怕
第二類風險不是 AI 自己想做壞事,而是壞人能不能“租用”一個超強大腦,把破壞性能力放大。作者尤其擔心的是生物相關方向,同時也提到網絡攻擊等領域會因為自動化與規模化而惡化。
這部分的主線是“門檻下降”:過去需要專業團隊和資源才能做到的事,可能被更少的人、更短的時間、更低的成本復制出來。應對思路也因此更偏治理工程:一方面在模型側建立分級與護欄,對高風險能力進行更嚴格的訪問、監控與發布策略;另一方面推動獨立評估與透明度機制,避免安全標準在競爭壓力下變成“可選項”。同時,現實世界的防御體系也要同步補課——監測、響應、公共安全能力如果不升級,模型側再多護欄也無法覆蓋全部風險。
1
第三重風險:奪權與固權——強大 AI 可能成為權力工具
比“小團體濫用”更棘手的,是強大 AI 被國家機器或大型組織掌控,用于監控、宣傳、壓制異議,或者對外形成壓倒性優勢。文章把這看作地緣政治與國內治理交織的風險:既擔心威權體系拿到強大 AI 的速度,也擔心“民主國家”在安全焦慮中滑向更強的監控與權力集中。
因此,作者強調兩條同時推進的路線:對外通過限制關鍵資源擴散來爭取時間,重點落在芯片與先進制造設備等供應鏈節點;對內則需要更清晰的法律邊界,避免以“安全”為名默認擴大監控與強制能力,并對高度敏感的應用(例如全自主武器)保持更高的審慎閾值。這里的矛盾很直白:競爭要求更快,但治理要求更穩,而失衡會把風險推向另一個極端。
1
第四重風險:經濟沖擊——不是“替代崗位”,而是“替代能力譜系”
經濟部分是全文最現實的一塊:即便 AI 不失控、不濫用、不被權力機器操控,它也可能僅憑效率優勢,讓勞動市場、收入結構與財富分配出現斷裂。
文章的擔憂點不在“某個行業被沖擊”,而在覆蓋面與速度:當系統能力覆蓋越來越多白領與知識工作,傳統的“換賽道”緩沖會變弱;當技術擴散速度快于培訓、教育與制度調整,沖擊就更容易集中爆發。作者認為,社會后果往往滯后于技術到來,但這并不意味著可以等到“問題出現再修”,因為那時的政治與經濟阻力會更大。
應對上,文章更強調“測量與適配”:先用更細顆粒度的數據觀察哪些任務、哪些行業正在被替代或重構,再討論企業如何把 AI 用在增量創新而不僅是降本裁員,討論更長周期的分配機制如何在“財富總量變大、勞動價值被擠壓”的情況下維持社會可承受性。它也提醒一個常見誤區:公眾討論容易被帶偏到邊緣議題,而核心矛盾其實是就業與集中度——誰獲得新增財富、誰承擔轉型成本。
1
第五重風險:間接效應——當一個世紀被壓縮進十年
最后一類風險更像“系統性未知”:即使前四關都被壓住,強大 AI 仍可能把科學、經濟與社會變化速度提升到歷史罕見的水平,帶來一連串難以預演的副作用。
![]()
文章舉的方向包括:生物與人類自我改造進展過快可能引發新的倫理與秩序問題;AI 在看似自愿的商業與行為設計中改變人類生活方式,可能帶來更隱蔽但廣泛的社會心理后果;以及當“個人價值”長期與“經濟貢獻”綁定時,社會可能遭遇意義與身份層面的系統性壓力。它試圖把討論從“能不能更富”推進到“愿不愿意成為那樣的社會”。
1
Humanity’s test:不是“能不能停”,而是“能不能同時做對幾件互相沖突的事”
文章最后把五類風險收束成一場“綜合考試”:這些風險并不獨立,很多對策會彼此牽制。為了避免失控,你可能想放慢;為了避免被對手超車,你又不得不加速。為了抵御威權奪權,你可能強化安全能力;但強化過頭又可能侵蝕公民自由。為了降低濫用風險,你需要更嚴格的限制;但限制過重又可能把研發推向不透明的地下化或跨境遷移。
因此,作者更傾向于一種現實主義路線:承認“徹底停下”在全球競爭中很難成為共同選擇,于是把重點放在爭取緩沖期與建立底線規則——對外通過關鍵資源與供應鏈手段讓高風險擴散變慢,對內用透明度、評估與法律邊界把競爭納入可執行的治理框架,讓“更快”不必等于“更亂”。
1
這篇超長文的關鍵信號
如果把全文壓縮成一句話,它提供的是一種思維框架:強大 AI 的風險不只來自“模型本身”,更來自它進入現實世界后與權力、市場、制度、價值體系的耦合。討論的重點也因此從“模型是否聰明”轉向“社會是否能在技術加速與競爭壓力下維持治理能力”。
它不要求讀者相信某個確定的時間點,而是在提醒:一旦強大 AI 出現得比制度調整更快,問題就會以連鎖反應的方式出現。真正難的不是識別單一風險,而是同時做對幾件互相沖突的事。
點個“愛心”,再走 吧
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.