![]()
末日時鐘,Doomsday Clock。
曼哈頓計劃結束后,1947年《原子科學家公報》設立了一款正在倒計時的時鐘,并希望用“指針越靠近午夜,人類文明距離毀滅就越接近”的方式,來呼吁大家關注核戰爭、生物技術等一系列能威脅人類存亡的概念。
末日時鐘即將“敲響”
在設立之初,運營者曾因原子彈的順利起爆,把末日時鐘的指針定格在了“23時53分”來警示大家。但遺憾的是,隨著部分地區局勢緊張、生物技術崛起、氣候變化加劇等一系列因素的影響,末日時鐘在過去的時間里曾被多次撥動。以至于當時間來到2025年時,它距離所謂的“毀滅時刻”僅有89秒。
![]()
但...隨著AI技術的進化加速、巴菲特等名人的連番警告,末日時鐘在2026年1月27日這天再次被撥快了4秒。
“這次一次性撥快 4 秒是幅度很大的調整。85 秒是有史以來最接近午夜的一次。”來自芝加哥大學的物理學教授丹尼爾·霍爾茨坦言,調整指針的根本目的是希望讓大家正視威脅、在潛在的風險面前團結起來。畢竟和“智械危機”這種游戲劇情走進現實相比,盡快設立人工智能國際準則才是符合所有人利益的選項。
正如巴菲特所言,人工智能真正的威脅在于未知。即使是那些頂級的AI研究員、企業,也沒辦法指明這項技術最終將走向何方。而這種源于技術空白、規則空白的不確定性,本身就暗藏著極大的風險。
“像哥倫布航海時,你可以說‘我不知道自己會到哪里’,因為你隨時還能掉頭回去。但現在不同了,精靈已經被放出瓶子。”
在巴菲特看來,AI技術失控的風險已經近在眼前。眼下世界各地都出現了“音視頻冒充他人行騙”的故事。當所有人都知道如何利用技術作惡時,AI在“造福人類”和“傷害人類”這兩個領域的潛力也將完全相等。
硅谷大佬和他們的末日保險
互聯網上有這樣一句話:“只有那些研發F1賽車的人,才是第一批知道它能跑多快的人。”
同樣的,當我們把這句話里的“F1賽車”換成“AI”后,便會發現在AI進化的前沿陣地硅谷里,準備“末日地堡”似乎已經成了一種流行。
相關文章指出,除扎克伯格(Meta CEO)、山姆·阿爾特曼(Open AI CEO)、馬文·廖(前雅虎高管)曾表示自己修建了地堡或準備武器、應急技能來應對可能的末日威脅外。著名投資人雷德·霍夫曼也表示約50%的硅谷富豪在美國境內、海外購置了庇護所,以此充當自己的“末日保險”。
![]()
畢竟對這些硅谷大佬而言,AI末日真正的威脅不僅在于“AI”本身,還有無數因AI陷入困境的普通人。倘若人工智能反攻人類這天真的出現,那么這些曾收集數據、開發模型的企業家、研究員,也將因此被眾人敵視。
不過,就像一件衣服有正反兩面一樣。世上有因AI末日焦慮不已的人,就同樣會有認為AI末日是杞人憂天的人。
2025年5月28日,蘭德公司科學家邁克爾·弗米爾在《科學美國人》雜志上系統性分析了AI末日降臨的可能性。他認為,AI消滅人類共有3個可能的路徑,即核戰爭、病原體攻擊、氣候變化。
但問題在于,人類的適應能力太強、數量太多而且在地球上分布太廣。即使AI黑入了全球9個擁核國家的核武庫,這些核彈也無法徹底摧毀地球的耕種體系,并讓放射性煙塵、核冬天帶來滅絕性事件。
至于病毒、氣候劇變,則分別需要AI開發出一種兼具傳染性、致死性的超級病毒(假設AI病毒的致死率高達99.99%,全球仍會有超80萬人幸存);徹底摧毀地球的自我修復功能,讓人類即使遷移到兩極也無法生存。
AI真的會帶來世界末日嗎
事實上,邁克爾·弗米爾認為AI想毀滅人類、摧毀人類文明。就必須同時滿足以下幾點:
1 脫離人類管控,制定可行的世界末日計劃。
2 隱藏自己的行為,欺騙人類為其提供病毒生產線、電力資源、發射系統等物理意義上的“毀滅工具”。
3 在行動初期,它必須掐滅人類的反擊力量或者在暗中繼續執行計劃,以此抗衡人類的自救本能。
4 當人類社會初步崩潰時,AI必須在脫離人類資源支持的前提下,繼續有條不紊地執行滅絕計劃,并系統性搜查、消滅幸存者。
![]()
從現有的技術體系看,AI想同時擁有上述四種能力幾乎是不可能的。所以他們也樂觀的認為在2100年以前,AI導致人類滅絕的概率將始終處于10%以下。
更何況在馬斯克等人的聯合呼吁下,目前各路學者也都投入到了“韁繩系統”的開發中。如人稱“AI教父”的約書亞?本希奧就成立了非營利性組織LawZero來開發Scientist AI。在應用層面,Scientist AI的核心發力方向是監測當前正在運行的各個智能體,并從中揪出那些欺騙人類、虛假工作的“壞模型”。
具體而言,Scientist AI自帶一個評分系統,它會根據各個智能體的表現來評估其行為的有效性、危害性。倘若被監測模型的行為超過了風險閾值、低分閾值,那么它就將在系統層面阻止相關模型的下一步行動。
所以,比起把“末日時鐘”當成“瑪雅人與2012”般的末日預言,還不如把它當成一個督促人類開發韁繩系統的提醒。畢竟只有徹底掌握、了解工具,才能在未來避免被工具所傷。
參考:
新華網:核威脅、氣候變化等因素使“末日之鐘”指針撥快4秒
界面新聞:巴菲特:AI的危險不亞于核武器,即便AI領袖也不清楚將走向何方
IT之家:“AI 教父”本希奧宣布開發“誠信”系統,防范智能體欺騙人類
湖南日報:蘭德公司科學家分析 人工智能會帶來“人類末日”嗎?
虎嗅:硅谷大佬,沉迷末日
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.