![]()
末日時鐘,Doomsday Clock。
曼哈頓計劃結(jié)束后,1947年《原子科學(xué)家公報》設(shè)立了一款正在倒計時的時鐘,并希望用“指針越靠近午夜,人類文明距離毀滅就越接近”的方式,來呼吁大家關(guān)注核戰(zhàn)爭、生物技術(shù)等一系列能威脅人類存亡的概念。
末日時鐘即將“敲響”
在設(shè)立之初,運營者曾因原子彈的順利起爆,把末日時鐘的指針定格在了“23時53分”來警示大家。但遺憾的是,隨著部分地區(qū)局勢緊張、生物技術(shù)崛起、氣候變化加劇等一系列因素的影響,末日時鐘在過去的時間里曾被多次撥動。以至于當(dāng)時間來到2025年時,它距離所謂的“毀滅時刻”僅有89秒。
![]()
但...隨著AI技術(shù)的進(jìn)化加速、巴菲特等名人的連番警告,末日時鐘在2026年1月27日這天再次被撥快了4秒。
“這次一次性撥快 4 秒是幅度很大的調(diào)整。85 秒是有史以來最接近午夜的一次。”來自芝加哥大學(xué)的物理學(xué)教授丹尼爾·霍爾茨坦言,調(diào)整指針的根本目的是希望讓大家正視威脅、在潛在的風(fēng)險面前團(tuán)結(jié)起來。畢竟和“智械危機”這種游戲劇情走進(jìn)現(xiàn)實相比,盡快設(shè)立人工智能國際準(zhǔn)則才是符合所有人利益的選項。
正如巴菲特所言,人工智能真正的威脅在于未知。即使是那些頂級的AI研究員、企業(yè),也沒辦法指明這項技術(shù)最終將走向何方。而這種源于技術(shù)空白、規(guī)則空白的不確定性,本身就暗藏著極大的風(fēng)險。
“像哥倫布航海時,你可以說‘我不知道自己會到哪里’,因為你隨時還能掉頭回去。但現(xiàn)在不同了,精靈已經(jīng)被放出瓶子。”
在巴菲特看來,AI技術(shù)失控的風(fēng)險已經(jīng)近在眼前。眼下世界各地都出現(xiàn)了“音視頻冒充他人行騙”的故事。當(dāng)所有人都知道如何利用技術(shù)作惡時,AI在“造福人類”和“傷害人類”這兩個領(lǐng)域的潛力也將完全相等。
硅谷大佬和他們的末日保險
互聯(lián)網(wǎng)上有這樣一句話:“只有那些研發(fā)F1賽車的人,才是第一批知道它能跑多快的人。”
同樣的,當(dāng)我們把這句話里的“F1賽車”換成“AI”后,便會發(fā)現(xiàn)在AI進(jìn)化的前沿陣地硅谷里,準(zhǔn)備“末日地堡”似乎已經(jīng)成了一種流行。
相關(guān)文章指出,除扎克伯格(Meta CEO)、山姆·阿爾特曼(Open AI CEO)、馬文·廖(前雅虎高管)曾表示自己修建了地堡或準(zhǔn)備武器、應(yīng)急技能來應(yīng)對可能的末日威脅外。著名投資人雷德·霍夫曼也表示約50%的硅谷富豪在美國境內(nèi)、海外購置了庇護(hù)所,以此充當(dāng)自己的“末日保險”。
![]()
畢竟對這些硅谷大佬而言,AI末日真正的威脅不僅在于“AI”本身,還有無數(shù)因AI陷入困境的普通人。倘若人工智能反攻人類這天真的出現(xiàn),那么這些曾收集數(shù)據(jù)、開發(fā)模型的企業(yè)家、研究員,也將因此被眾人敵視。
不過,就像一件衣服有正反兩面一樣。世上有因AI末日焦慮不已的人,就同樣會有認(rèn)為AI末日是杞人憂天的人。
2025年5月28日,蘭德公司科學(xué)家邁克爾·弗米爾在《科學(xué)美國人》雜志上系統(tǒng)性分析了AI末日降臨的可能性。他認(rèn)為,AI消滅人類共有3個可能的路徑,即核戰(zhàn)爭、病原體攻擊、氣候變化。
但問題在于,人類的適應(yīng)能力太強、數(shù)量太多而且在地球上分布太廣。即使AI黑入了全球9個擁核國家的核武庫,這些核彈也無法徹底摧毀地球的耕種體系,并讓放射性煙塵、核冬天帶來滅絕性事件。
至于病毒、氣候劇變,則分別需要AI開發(fā)出一種兼具傳染性、致死性的超級病毒(假設(shè)AI病毒的致死率高達(dá)99.99%,全球仍會有超80萬人幸存);徹底摧毀地球的自我修復(fù)功能,讓人類即使遷移到兩極也無法生存。
AI真的會帶來世界末日嗎
事實上,邁克爾·弗米爾認(rèn)為AI想毀滅人類、摧毀人類文明。就必須同時滿足以下幾點:
1 脫離人類管控,制定可行的世界末日計劃。
2 隱藏自己的行為,欺騙人類為其提供病毒生產(chǎn)線、電力資源、發(fā)射系統(tǒng)等物理意義上的“毀滅工具”。
3 在行動初期,它必須掐滅人類的反擊力量或者在暗中繼續(xù)執(zhí)行計劃,以此抗衡人類的自救本能。
4 當(dāng)人類社會初步崩潰時,AI必須在脫離人類資源支持的前提下,繼續(xù)有條不紊地執(zhí)行滅絕計劃,并系統(tǒng)性搜查、消滅幸存者。
![]()
從現(xiàn)有的技術(shù)體系看,AI想同時擁有上述四種能力幾乎是不可能的。所以他們也樂觀的認(rèn)為在2100年以前,AI導(dǎo)致人類滅絕的概率將始終處于10%以下。
更何況在馬斯克等人的聯(lián)合呼吁下,目前各路學(xué)者也都投入到了“韁繩系統(tǒng)”的開發(fā)中。如人稱“AI教父”的約書亞?本希奧就成立了非營利性組織LawZero來開發(fā)Scientist AI。在應(yīng)用層面,Scientist AI的核心發(fā)力方向是監(jiān)測當(dāng)前正在運行的各個智能體,并從中揪出那些欺騙人類、虛假工作的“壞模型”。
具體而言,Scientist AI自帶一個評分系統(tǒng),它會根據(jù)各個智能體的表現(xiàn)來評估其行為的有效性、危害性。倘若被監(jiān)測模型的行為超過了風(fēng)險閾值、低分閾值,那么它就將在系統(tǒng)層面阻止相關(guān)模型的下一步行動。
所以,比起把“末日時鐘”當(dāng)成“瑪雅人與2012”般的末日預(yù)言,還不如把它當(dāng)成一個督促人類開發(fā)韁繩系統(tǒng)的提醒。畢竟只有徹底掌握、了解工具,才能在未來避免被工具所傷。
參考:
新華網(wǎng):核威脅、氣候變化等因素使“末日之鐘”指針撥快4秒
界面新聞:巴菲特:AI的危險不亞于核武器,即便AI領(lǐng)袖也不清楚將走向何方
IT之家:“AI 教父”本希奧宣布開發(fā)“誠信”系統(tǒng),防范智能體欺騙人類
湖南日報:蘭德公司科學(xué)家分析 人工智能會帶來“人類末日”嗎?
虎嗅:硅谷大佬,沉迷末日
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.