![]()
(來源:MIT TR)
近年來,通用人工智能(AGI)被賦予近乎神話的力量:有人堅信它將治愈疾病、拯救地球、開啟人類的富足時代;也有人警告它會帶來終極災難、終結人類文明。無論是烏托邦還是末日論,AGI 已成為當下主流敘事之一。它尚未發生,卻主導了資本流向、科技政策與公眾想象。
但當我們剝開這層層敘事,不禁要問:我們狂熱追隨的,究竟是一項確鑿的技術未來,還是一場精心編織的現代神話?越來越多跡象表明,圍繞 AGI 的集體狂熱,已展現出類似陰謀論的特征——一個我們時代最“高級”的陰謀論。
![]()
硅谷是如何被 AGI “洗腦”的
早在 2007 年,人工智能還遠沒有今天這么光鮮。亞馬遜和 Netflix 那時已經涉足了機器學習,但也只是用它來推薦書籍和電影,僅此而已。
不過本·戈策爾(Ben Goertzel)并不滿足于此,他懷揣著更大的夢想。大約十年前,這位人工智能研究者創立了名為“Webmind”的互聯網初創公司,試圖在早期網絡環境中培育他所構想的“數字嬰兒大腦”。但由于缺乏資金支持,公司很快宣告破產。
戈策爾是一個小眾科技圈的核心人物,這個圈子的研究者一直夢想著創造出能像人類一樣思考甚至做得更好的智能。只是,他還需要一個響亮的名字把它和略顯平庸的人工智能進行區分。
當時 Webmind 的員工謝恩·萊格提出了“AGI”(Artificial General Intelligence,通用人工智能) 這一名字。聽起來有些遙不可及,但不失準確。戈策爾決定,就是它了。
幾年后,萊格(Legg)與德米斯·哈薩比斯(Demis Hassabis)和穆斯塔法·蘇萊曼(Mustafa Suleyman)共同創立了 DeepMind, 同樣扎根 AGI 領域。
但在當時大多數嚴肅的研究者眼中,人工智能終將模仿人類能力的論斷不過是個笑話。那么究竟發生了什么?AGI 如何在十幾年內從荒誕不經演變為眾所周知?
上個月我采訪了戈策爾,向他提出了我的疑問。他說:“我算是研究復雜混沌系統的人,所以對自身能真正理解記憶空間中非線性動態的認知持保守態度。”(簡單翻譯:事情很復雜,我不好說。)
戈策爾認為有幾個因素幫助推廣了這一理念。
首先是 AGI 會議——該會議常與頂尖主流學術集會同步舉辦,例如促進科學進步協會的年會、人工智能會議和國際人工智能聯合會議。
"如果我只是出版了一本名為《AGI》的書,它可能就會悄無聲息地消失,”戈策爾表示,“但會議每年都在巡回舉辦,吸引著越來越多的學生參與。”
"其次要感謝萊格,他將這個 AGI 術語帶到了 DeepMind。我認為他們是第一個在當時主流企業界討論 AGI 的公司。雖然這并非他們反復強調的核心議題,但這無疑為該領域提供了合法性依據。”
"五年前我首次與萊格討論 AGI 時,他坦言, 2000 年代初談論 AGI 會被視為瘋子……即便 2010 年創立 DeepMind 時,我們在會議上仍遭遇大量白眼。但到 2020 年風向已變。雖然仍有部分人對此感到不安,但它正逐漸走出冷宮。”
戈策爾指出的第三點是早期 AGI 宣揚者與科技巨頭權力經紀人之間的交集。戈策爾曾與 Paypal 創始人彼得·蒂爾(Peter Thiel) 有過合作。“我們聊了很多,”戈策爾回憶道。他記得有天在舊金山四季酒店與蒂爾共處一整天。“我試圖拼命向他灌輸 AGI 理念。”
那時的戈策爾還不知道,他不是“孤軍奮戰”。還有另一個人正在和他一起推動 AGI 這股浪潮前進。
![]()
末日論者登場
這個人就是埃利澤·尤德科夫斯基(Eliezer Yudkowsky),他在推動 AGI 理念方面所做的貢獻至少不亞于戈策爾,甚至可能更為突出。但與戈策爾對 AGI 的樂觀幻想不同,尤德科夫斯基認為 AGI 只會帶領人類走向滅頂之災
起初,尤德科夫斯基的觀點并未引起廣泛關注。要知道,當時的人工智能,都還只是純粹的科幻概念。直到 2014 年,牛津大學哲學家尼克·博斯特羅姆(Nick Bostrom)出版了《Superintelligence》(超級智能)一書,讓 AGI 的概念真正廣為人知。
比爾·蓋茨、埃隆·馬斯克等眾多科技界人工智能從業者都讀過此書,并且受其影響。無論是否認同他悲觀的末日論,尼克確實將埃利澤的理念以極具說服力的方式系統化地呈現了出來。
“所有這些都讓 AGI 獲得了宣傳,”戈策爾補充道,“它不再是一個虛無縹緲或者荒誕的概念。”
![]()
(來源:MIT TR)
如今,尤德科夫斯基的觀點比以往任何時候都更受歡迎。這吸引了像蒙特利爾大學研究員大衛·克魯格(David Krueger)這樣的年輕末日論者。
“我認為我們正穩步走向制造出殺光所有人的超人類 AI 系統,”克魯格認為,“我們必須立即叫停。”
媒體們也開始爭相報道,尤德科夫斯基甚至被紐約時報冠以“硅谷版末日傳教士”的稱號。
他抓住熱度,與機器智能研究所所長內特·索雷斯合著的新書《If Anyone Builds It, Everyone Dies》,提出了一系列缺乏證據支撐的驚人論斷:近未來的 AGI 將引發全球末日浩劫。
二人的立場十分極端:他們主張應不惜一切代價實施國際禁令,必要時甚至可訴諸核武器報復。畢竟,尤德科夫斯基和索阿雷斯寫道:“數據中心造成的死亡人數可能超過核武器。”
該書一經推出,就登上了《紐約時報》暢銷書榜,并獲得多位權威人士的推薦,包括美國諸多政客、科學家與社會名流, AGI 開始引發巨大的社會關注, 資本、政策開始紛紛押注。
2023 年,OpenAI 首席執行官山姆·奧特曼(Sam Altman) 在 X 平臺發布:“在我看來,埃利澤為加速 AGI 發展所做的貢獻遠超任何人。毫無疑問,正是他讓許多人對 AGI 產生了興趣。”尤德科夫斯基或許有朝一日會因此獲得諾貝爾和平獎,奧特曼補充道。
這一切所帶來的影響,似乎與尤德科夫斯基的想法背道而馳。但不管他接受與否,AGI 已經悄然滲透主流并牢牢扎根。
![]()
但 AGI 是什么?沒人知道
1945 年,第一臺電子計算機 ENIAC 問世僅五年后,艾倫·圖靈(Alan Turing)就提出了那個著名的問題:“機器能思考嗎?”不久后的 1951 年,他在一次廣播節目中說得更直白:“一旦機器學會思考,它們很快會超越我們有限的能力。機器不會死,還能相互交流、不斷進化。所以總有一天,我們得準備好把控制權交給它們。”
十年后的 1955 年,計算機科學家約翰·麥卡錫(John McCarthy)和同事向美國政府申請資金,打算開展一個他們頗具遠見地命名為“人工智能”的項目。
這個命名在當時看來近乎天方夜譚——畢竟那時的計算機還像房間一樣笨重,功能卻和恒溫器差不多。但麥卡錫在申請書中寫道:“我們將探索如何讓機器使用語言、形成抽象概念、解決如今只有人能解決的問題,并實現自我進化。”
正是這些早期預言,埋下了今天 AGI 神話的種子。所謂比人更聰明、無所不能的機器,與其說是技術目標,不如說更像一種脫離現實的幻想。
因為盡管投入巨資、爭論不休,沒有人真知道該怎么造出 AGI。
更麻煩的是,大多數人連它到底是什么都沒共識——這也解釋了為什么有人能一邊說它會拯救世界,一邊又說它將毀滅人類,卻沒人覺得矛盾。
大多數定義的核心都繞著同一個理念:機器能在廣泛的認知任務中達到人類水平。但這個定義本身也站不住腳:指的是哪些人類?哪些認知任務?“廣泛”實際有多廣?
“它根本沒有準確定義,”美國橡樹嶺國家實驗室前計算機部門負責人克里斯托弗·西蒙斯(Christopher Simmons)指出,“如果說以人類水平為基準——智能本身就有無數種可能,每個人的智能都各不相同。”
西蒙斯認為,我們因此陷入一場奇怪的競賽:到底要造個什么東西?“你究竟想讓它干什么?”
2023 年,谷歌 DeepMind 團隊(包括參與命名的萊格)曾嘗試梳理 AGI 的各種定義。有人認為它必須能學習;有人強調它得創造經濟價值;還有人堅持它得有物理身體,能在現實世界活動(比如沖咖啡)。
萊格告訴我,當年他向戈策爾提議用這個詞作書名時,模糊性正是關鍵。“我當時沒有特別清晰的定義,也覺得沒必要下定義,”他說,“其實——它不像一個具體的東西,更像一個研究領域。”
所以,等它真出現了我們自然就知道?問題是,有些人認為 AGI 已經降臨。
2023 年,微軟研究團隊發表論文,描述了他們對 OpenAI 大型語言模型 GPT-4 預發布版本的測試體驗。該團隊稱其為“AGI 的火花”——這一論斷在業界引發了激烈爭議。當時,許多研究者為之震撼,紛紛試圖用現有理論框架解釋所觀察到的現象。
“這東西的表現比我們預想的還要好,”戈策爾表示,“AGI 似乎不再那么遙不可及。”盡管如此,戈策爾仍然認為,大語言模型雖展現出卓越的文本處理能力,但并未真正觸及通用智能的核心。
“讓我有些意外的是,一些對這類工具底層機制有深刻理解的技術專家,依然相信它們有可能發展為人類水平的 AGI,”他說,“但另一方面,你確實無法完全否定這種可能性。”
事實正是如此:你無法證明它不可能實現。所有人也都在猜測它實現的時間,5年?10年?25年?沒人知道。
這像極了陰謀論。因為關于 AGI 何時到來的預測,準確度堪比占星師預言世界末日。這類預測無需承擔實際后果,借口總在刷新,時間線不斷重設。
今年夏天萬眾期待的 GPT-5 ,就是最好的例子。
然而,這并沒有被看作是 AGI 無法實現的證據——信徒們只是不斷推遲他們的預測。它總會到來的——只不過,你知道的,永遠都是“下一次”。
![]()
信則有,不信則無
每當我與那些研究人員或工程師交談時,他們總是不經意地將 AGI 當作一個既定事實來談論,仿佛他們掌握著某種我所不知道的奧秘。可始終沒有人能真正告訴我,那奧秘究竟是什么。
真相就在那里,只是你需要知道該往哪里尋找。杰里米·科恩(Jeremy Cohen)曾告訴我,陰謀論的核心在于“揭露隱藏的真相”:“這確實是陰謀論思維的基本特征,而我們在人們討論 AGI 時,也能清晰地看到這種特質。”
去年,23 歲的前 OpenAI 員工、現任投資者利奧波德·阿申布倫納(Leopold Aschenbrenner)發表了一篇引發廣泛關注的 165 頁宣言,題為《Situational Awareness》(情境感知)。
你甚至無需通讀全文就能抓住其核心思想:你要么看清即將到來的真相,要么永遠停留在蒙昧之中。
這種認知甚至不需要冰冷的事實支撐——直覺上的感知便已足夠。而那些尚未“覺醒”的人,不過是因為還沒有領悟到其中的真諦。
類似的觀點也隱隱貫穿在我與戈策爾的對話中。當我問他,為什么有人會對 AGI 持懷疑態度時,他這樣回答:“歷史上每一次重大的技術突破——從人類飛行到電力的普及——總有許多聰明的評論家斷言那是不可能的。事實是,大多數人只愿意相信他們已經親眼所見的東西。”
這使得 AGI 聽起來更像是一種信仰。我把這個看法告訴了堅信 AGI 可能在五年內到來的 AI 研究者大衛·克魯格。他不以為然地表示:“我認為這完全搞反了。”
在他看來,真正的“信仰”其實是堅信 AGI 不會實現——那些至今仍在否認“顯而易見”事實的懷疑者,才是真正執迷不悟的人。
隱秘的真相吸引著那些自認的“真理追尋者”,他們執著于揭示那些他們認為一直存在、只是未被看見的事物。然而,對于 AGI 而言,僅僅“揭示”是遠遠不夠的。它還需要一場前所未有的創造行為,而這也是它如此有吸引力的一個重要原因。
“那種認為自己正在孕育‘機器之神’的念頭,顯然極大地滿足了某些人的自我,”香農·瓦洛爾指出,“想象自己正在為這種超越性的存在奠定最初的基礎——這種想法具有一種難以抗拒的誘惑力。”
這與陰謀論思維產生了另一種重疊。人們在一個看似混亂而無意義的世界中,對自身存在價值的渴求——渴望成為那個至關重要、能夠改變一切的人物。
克魯格在伯克利從事研究,他表示自己認識一些從事人工智能工作的人,他們將這些技術視為人類自然而然的繼承者。“他們看待這些技術,幾乎就像看待自己的孩子一樣,”他說,“順便提一句:這些人通常沒有孩子。”
![]()
一個新的精神烏托邦
杰里米·科恩(Jeremy Cohen)發現,許多現代陰謀論與新紀元運動(New Age movement)之間存在相似性——后者在 1970 至 80 年代達到頂峰。
該運動的信徒堅信,人類正站在一個全新精神福祉時代的門檻上,認為意識擴展將引領世界進入更和平、更繁榮的階段。簡單來說,其核心信念是:通過一系列帶有偽宗教性質的實踐——例如占星術、精心挑選水晶等——人類能夠超越自身的局限,進入某種“嬉皮士式”的烏托邦。
當今的科技產業雖然建立在計算與算法之上,而非水晶或星座,但其對某些根本命題的認知卻呈現出相似的神秘學色彩。“你知道,那種關于徹底變革的想象——仿佛我們將迎來某種千禧年式的轉折,最終步入技術烏托邦的未來,”科恩指出,“而 AGI 終將幫助人類克服一切困境的信念,恰恰是這種核心想象的體現。”
在不少人的印象中,AGI 的到來將是突然的。人工智能的漸進發展會不斷累積,直至某一天,其能力強大到足以自主創造出更強大的人工智能。到那時——它將以驚人的速度演進,通過所謂的“智能爆炸”實現 AGI 的突破,最終抵達一個不可逆轉的臨界點,即“奇點”。這個在 AGI 圈子流傳多年的特殊術語,至今仍被廣泛使用。
科幻作家弗諾·文奇(Vernor Vinge)最早借用了物理學中的“奇點”概念來描述技術發展的這一理論閾值。早在 1980 年代,他就提出在技術進步的路徑上存在一個“事件視界”——一旦越過這個界限,人類將被自己創造的、以指數速度自我進化的機器迅速超越。
香農·瓦洛爾認為,這種信仰體系最顯著的特征在于:對技術的信仰已經取代了對人類自身的信仰。她指出,盡管新世紀運動的思想帶有玄學色彩,但其中至少還保留著一種信念——人類只要能夠激發自身潛能,就足以改變世界。然而,在追求 AGI 的過程中,我們正在拋棄這種對“人”的信念,轉而接受“唯有技術才能拯救人類”的觀念。
對許多人來說,這種想法極具吸引力,甚至令人感到安心。“我們正處在一個時代,人類生活與社會物質進步的其他途徑似乎已經窮盡。”
技術曾被視為通往美好未來的階梯——穩步引領人類走向社會繁榮。但瓦洛爾指出:“我們已經越過了那個頂峰。如今在我看來,能讓許多人重燃希望、重拾對未來樂觀態度的,似乎只剩下 AGI。”
她進一步表示,如果將這種邏輯推向極致,AGI 最終可能被塑造成某種“神明”——一個被認為能夠為世間一切苦難帶來終極解脫的存在。
北卡羅來納大學的社會學家凱莉·喬伊斯(Kelly Joyce)主要研究文化、政治和經濟信念如何影響人們對技術的理解與使用。在她看來,所有關于 AGI 的狂熱預言,其實都不過是科技行業長期存在的“過度承諾模式”的又一次體現。她說:“有趣的是,我們每次都深陷其中。人們似乎總是堅信技術優于人類。”
喬伊斯認為,這正是為什么每當炒作興起時,人們總是傾向于相信它。“這就像一種宗教,”她說,“我們信仰技術。技術就是我們的上帝。要抗拒這種觀念非常困難——因為人們根本不想聽到別的說法。”
![]()
(來源:MIT TR)
![]()
最終幻想背后的代價
“計算機終將能完成人類所有任務”這一幻想無疑極具誘惑力。但正如許多廣為流傳的陰謀論那樣,這種幻想正帶來真實而沉重的后果。
它扭曲了我們對當前技術繁榮(及其潛在衰退)背后真實代價的認知,甚至可能將整個行業帶入歧途——讓資源從那些更緊迫、更務實的技術應用中抽離。更關鍵的是,它讓我們心安理得地逃避。它誘使我們相信,或許可以跳過那些需要全球協作、政治妥協與高昂代價的難題,無論是氣候危機、公共衛生,還是系統性不平等。既然機器很快就能替我們解決一切,我們何必再費心力?
這種發展背后的代價也鮮被追問。
看看這場豪賭所投入的資源。就在最近,OpenAI 與英偉達(NVIDIA)宣布了一項價值高達 1,000 億美元的合作,僅為滿足 ChatGPT 等模型的運行,預計就需要至少 10 吉瓦的電力——這相當于一座大型核電站的發電量。一道閃電瞬間釋放的能量或許也不過如此。
作為參照,電影《回到未來》中驅動德羅寧時光機的“磁通電容器”只需約 1.2 千瓦時。而僅僅兩周后,OpenAI 又與 AMD 達成另一項合作,再添數千兆瓦的電力需求。
在為英偉達交易站臺時,薩姆·奧特曼(Sam Altman)曾宣稱,若不建設更多數據中心,社會將不得不在“治愈癌癥”和“普及免費教育”之間做出殘酷抉擇。“沒人想面臨這種選擇,”他說。(諷刺的是,幾周后,OpenAI 便宣布將為 ChatGPT 推出情色內容生成功能)更令人不安的是,這種對遙遠神話的追逐,正在擠占那些能切實改善當下生活的技術投入。
“在我看來,這是巨大的機會錯失,”人工智能醫療公司 Lirio 的首席 AI 科學家克里斯托弗·西蒙斯(Christopher Simmons)直言,“這是資源的嚴重錯配。明明有無數真實、緊迫的問題亟待解決,我們卻把海量資金投向一個定義模糊、前景不明的目標。”
“但當 OpenAI 這樣的公司手握千億資金時,它們其實不必做出務實的選擇,”西蒙斯補充道,“資本規模本身,就足以讓它們脫離現實需求的引力。”
這種扭曲的敘事也正滲透進政策領域。加州大學戴維斯分校的科技政策研究者蒂娜·勞(Tina Law)擔憂,政策制定者正被游說力量牽引,過度關注“AI 終將毀滅人類”的遙遠假想,而忽略了算法偏見、勞動替代、監控擴張等當下真實存在的危害。對“存在性風險”的宏大辯論,反而將結構性不平等、數字鴻溝等迫切議題邊緣化。
“炒作對科技公司而言是一門有利可圖的生意,”勞一針見血地指出,“其核心策略是營造一種‘不可避免’的敘事:如果我們不發展,別人就會領先。一旦某種技術被塑造成歷史必然,人們不僅會猶豫是否要抵制,更會懷疑自己是否有能力抵制。”
佐治亞理工學院的技術政策學者米爾頓·穆勒(Milton Mueller)則將 AGI 競賽比作當年的核軍備競賽:“它建立在一種危險的邏輯上——誰先掌握這項技術,誰就能控制所有人。這種思維會徹底扭曲我們的外交政策與國際關系。”
穆勒進一步指出,企業乃至政府之所以熱衷推動 AGI 神話,背后是明確的商業與戰略動機。關鍵在于,這場競賽根本沒有公認的終點線。只要神話還能吸引投資與關注,它就可以被無限期地講述下去。
故事的結局或許并不復雜。它既非烏托邦,也非地獄——更可能的是,在抵達任何所謂“奇點”之前,OpenAI 與它的同行們,已在追逐神話的過程中賺得盆滿缽滿。
而世界面對的許多真實的問題,依然在那里。
![]()
新的“AGI”還在路上
迄今為止,我們還未討論到一個最典型的特征:陰謀論往往預設存在一個幕后操縱的權力集團,而信徒們相信,通過不懈追尋“真相”,就能揭開這個精英階層的面具。
當然,那些警惕 AGI 的人并沒有公開指控光明會或世界經濟論壇在阻撓 AGI 的實現或隱藏其秘密。
但假如,真正的操縱者并非在阻止 AGI,而是在長期鼓吹 AGI 敘事呢?硅谷的巨頭們正在投入巨額資源,竭力開發 AGI——而這首先是一門生意。對他們而言,AGI 的神話具有無比現實的商業與戰略價值。
正如一位人工智能公司高管近期私下透露的那樣:“AGI 必須永遠被描述為‘距離實現還有 6 到 12 個月’。如果顯得太遙遠,我們就無法從頂尖機構吸引人才;但如果顯得太近……那故事還怎么講下去?”
香農·瓦洛爾曾尖銳指出:“如果 OpenAI 公開說他們只是在打造能讓公司更賺錢的機器,公眾絕不會買賬。”你創造神,自己也得成為神。
正如大衛·克魯格所觀察到的,硅谷彌漫著一種根深蒂固的邏輯:開發人工智能是獲取終極權力的途徑(這也是利奧波德·阿申布倫納《情境感知》的核心論點之一)。“我們即將擁有如神一般的力量,”克魯格說,“但我們的意識、倫理和制度卻并未準備好。很多人相信,誰先實現 AGI,誰就基本掌控了世界。”
“他們投入巨大精力去推銷一個充滿 AGI 的未來圖景,并且憑借其影響力,已經取得了相當大的成功。”他補充道。
本·戈策爾甚至對這個隱秘集團的成功流露出近乎悲哀的情緒。他開始懷念 AGI 仍處于邊緣、無人問津的歲月。“我們這一代投身 AGI 研究的人,既需要遠見,也需要固執——甚至是一種蠻勁,”他說,“但現在呢?它變得就像你奶奶勸你別學哲學了,趕緊找份正經工作一樣。”
“這種想法變得如此主流,實在令人困惑,”他坦言,“這幾乎讓我想轉行去做些真正冷門的東西——那些還沒被人群淹沒的領域。”他半開玩笑地(我猜)說:“顯然,給 AGI 收尾比滿足我個人探索前沿的偏好更重要。”
但我仍然不明白:他們到底在完善什么?如果我們如此沉迷于這個科技童話,對真正的技術發展究竟意味著什么?從很多方面看,我認為整個 AGI 理念建立在對人工智能能力的扭曲預期之上——甚至建立在對“智能”本質的誤解之上。
歸根結底,AGI 論點的核心在于:人工智能已取得飛速進步且將持續提升。但暫且拋開技術層面的質疑——若它未能持續進步呢?——剩下的主張無非是:只要擁有足夠數據、計算力或神經網絡,智能便能像商品般無限獲取。
可事實并非如此,智能并非可無限遞增的量化指標。智者可能在某領域卓爾不群,卻在其他領域平庸無奇。例如某些諾貝爾獎得主彈琴或育兒能力極差,還有某些所謂的“聰明人”堅稱 AGI 明年就會到來。
我們不禁要問:下一個讓我們上鉤的神話,會是什么?
通話結束前,戈策爾隨口提到他剛在舊金山參加了一場活動,“主題是關于超感官知覺、預知未來……那些東西。”
“這就是 20 年前 AGI 的處境,”他說,“那個時候,每個人都覺得這想法簡直離譜。”
參考資料:
https://www.technologyreview.com/2025/10/30/1127057/agi-conspiracy-theory-artifcial-general-intelligence/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.