![]()
“真正危險的,不是計算機開始像人一樣思考,而是人類開始像計算機一樣思考。”
——西德尼·哈里斯
未來學家雷·庫茲韋爾在2006年預言:人類將在2029年實現通用人工智能。很多人都覺得這是癡人說夢。18年后的今天,這個曾經荒誕的預言,已經成為一部分人的共識。
四位來自哲學、機器學習、語言學和認知科學領域的學者聯名宣布:通用人工智能(AGI)已經到來。
證據看起來確實無可辯駁。2025年3月,GPT-4.5在圖靈測試中,73%的情況下被人類判斷為人類,比真人更像人。大語言模型在國際數學奧林匹克競賽中獲得金牌,與頂尖數學家合作證明定理,協助專業程序員編寫代碼,用幾十種語言流暢交流。
按照圖靈在1950年設定的標準,機器已經展現出“廣泛而靈活的認知能力”,達到了人類水平的智能。
但有一個更深刻的問題,很少有人關注和討論:當AGI真的到來,當機器獲得了與人類相當水平的智能,人類如何避免淪為機器的工具,或奴隸?
![]()
2026年1月,最近當紅的AI模型claude的母公司Anthropic發布了一項研究。52名專業程序員參與實驗,學習新的Python異步編程庫。一半人可以使用AI輔助,一半人獨立完成。
令人驚訝的是,使用AI的人,平均測驗分數比不用AI的人低了17%,整整兩個等級分。也就是說,濫用AI比不用AI還危險。
更重要的是,AI組內部出現了巨大的分化:會用AI的人得分86%,完全依賴AI的人只有24%。
AI不是中立的工具。它像一面放大鏡,放大你原本的學習方式,以及你和強大算力之間的距離。
如果你本來就善于思考和學習,AI讓你如虎添翼。如果你本來就依賴別人和捷徑,AI加速你的退化。如果你本來就沒有學習的機會,AI讓鴻溝變成天塹。
這個簡單的實驗,揭示了一個正在發生的現實和趨勢:以AI為分水嶺,人類正在經歷一場無聲的分化,整個社會正在分為三個層級。
第一層世界:那些被排除在外的人
2025年,騰訊新聞報道過一個細節:中國某縣城的教師在課堂上講數學題,題目涉及地鐵換乘。孩子們一臉茫然。他們從未見過地鐵。老師也沒見過。
聯合國開發計劃署在2025年12月發布的報告《下一次大分化》中說:低收入國家的網絡普及率只有27%,高收入國家已經達到93%。當硅谷的孩子3歲開始用AI輔助學習時,世界上還有相當多的人沒有接觸過AI。
這個群體包括中國的流動兒童和留守兒童、發展中國家從事高度可替代工作的勞動力、那些被制度性障礙困住的人。他們沒有“選擇不用AI”,只是“接觸不到AI”。
國家信息中心大數據發展部人工智能處處長劉枝在接受采訪時說了一句意味深長的話:“關鍵窗口期決定了其極為寶貴且轉瞬即逝。落后的追趕者要投入遠超窗口期內的資金成本,還將付出更大的時間成本。”
意思很明白:現在不上車,以后恐怕永遠上不了車。
中國社科院學部委員蔡昉在《求是》雜志撰文指出,非認知能力的最佳培養時間在3-4歲。錯過這個窗口,終身難以彌補。當精英家庭的孩子3歲就開始培養“為什么”思維時,縣城的孩子14歲才第一次見到DeepSeek。認知起點的差距,已經無法追趕。
![]()
而在另外一個方面,正如《權力的48條法則》的作者、暢銷書作家羅伯特·格林(Robert Greene)最近所言,
“未來最大的分野將是:一部分人訓練自己能夠應對這些復雜性,而另一部分人則被這些復雜性所壓倒;一部分人能夠獲得技能并約束自己的思想,而另一部分人則被周圍的各種媒體無可挽回地分散了注意力,永遠無法集中精力去學習。”
在這個短視頻和算法推送的時代,這種對注意力主權的掌控,也和受教育的資格或培養一個健全孩子的時間窗口一樣,一旦失去就很難重新把握。
第二層世界:正在被認知外包吞噬的人
Anthropic的實驗揭示了一個現象:那些完全依賴AI的人,雖然完成任務最快(19.5分鐘),但測驗得分最低(39%)。他們連監督AI的能力都沒有了。
新華網在2025年10月的報道中引用了一個概念:“AI乘客” vs “AI駕馭者”。美國AI教育公司Section 4的CEO格雷格·肖夫預測:未來10年,知識型勞動者將分化為兩類。
“AI乘客”把認知工作全權交給AI,短期內或因效率提升而獲得認可,但隨著AI能力迭代,這些人終將被AI取代。
之前,麻省理工媒體實驗室的研究發現:長期使用AI會導致大腦神經連接減少。腦電圖掃描顯示,長期使用AI大語言模型的人,大腦神經連接數降低,影響語言和行為等層面。微軟和卡內基梅隆大學的研究也發現:生成式AI削弱批判性思維能力,導致過度依賴。
Anthropic論文中有一個叫“Progressive AI Reliance”(漸進式AI依賴)的模式:第一個任務還自己做,第二個任務就完全交給AI了。最后測驗得分:35%。這就是大多數人正在走的路。
美國納什維爾的高中文學教師墨菲·肯尼菲克痛心地說:“我親眼目睹學生的批判性思維和注意力被AI徹底摧毀。”他發現至少40例學生用AI作弊。更諷刺的是,當學生被識破時,反應往往是漠然地聳聳肩,他們對寫作過程的重要性毫無認知。
浙江大學管理學院吳蘇青團隊2025年在《科學報告》發表的研究顯示:AI應用帶來認知需求的“空心化”。當AI完成工作的“燒腦”部分,人類僅剩機械性執行,工作淪為“被動填空”,導致心理疏離,喪失工作動力。
這就是第二層人的命運:在享受效率紅利的過程中,悄無聲息地被掏空。看似走上了快車道,其實是一條通往沉沒的岔路。
第三層世界:那些保持認知主動性和注意力主權的人
但Anthropic的實驗也揭示了另一個真相:并非所有用AI的人都會退化。那些測驗得分86%的人,他們用AI的方式完全不同。
論文把這種模式叫做“Generation-Then-Comprehension”(先生成后理解)。他們讓AI生成代碼,然后追問:“為什么這樣寫?”主動測試邊界情況,把AI當老師,不只當工具。
還有一種叫“Conceptual Inquiry”(概念探究)。他們只問AI概念性問題,所有代碼都自己寫,遇到錯誤獨立解決,保持認知主導權,絕不把嚴肅思維的工作外包給AI。
這些人有一個共同特征:認知參與度高,主動思考“為什么”,不回避錯誤和困難。關鍵洞察在于:他們遇到了更多錯誤。實驗數據顯示,對照組(不用AI)平均遇到3個錯誤,AI高分組遇到2-3個錯誤,AI低分組只遇到1個錯誤。
那些完全依賴AI的人,代碼第一次運行就成功了,看起來很高效。但他們失去了最寶貴的學習機會。因為調試的過程,才是理解原理的過程。
這讓我想起哲學家海德格爾的一個概念:“工具的退隱”。當一個工具運作良好時,我們不會注意到它的存在。只有當工具出現故障時,我們才會意識到它的工作原理。
AI的問題恰恰在于:它太好用了,它接管了從想法到結果的所有痛苦的中間過程,甚至接管了想法本身,以至于讓我們忘記了“為什么”。
Anthropic的研究者在論文結尾寫了一句話:“AI增強的生產力并不能通往能力的捷徑。在安全關鍵領域,必須謹慎地將AI整合進工作流程,以保護技能形成。”
這句話揭示了一個被忽視的真相:技能的本質是“理解”。理解需要知道“怎么做”,更要知道“為什么”,理解需要掙扎、犯錯、調試,不能走捷徑。
馬太效應:差距正在以指數級速度擴大
三層分化本身或許還不夠嚴重。真正嚴重的是:這三層之間的差距,正在以指數級速度擴大。
AI專家吳恩達近期在宣布AI Fund完成1.9億美元募資時強調:“創業成功的首要預測因素就是速度。”
但他接著說了更關鍵的一句話:“真正稀缺的是‘技術理解力’,因為技術在快速演進。”這句話體現出馬太效應的氣質:先發優勢乘以理解力,等于不可逆的差距。
正在百倍甚至千倍的優勢,一騎絕塵,遙遙領先,把大多人甩在后面。
讓我們看一個時間軸推演。
2026年(現在),第三層開始用“正確方式”使用AI,構建“技術理解力”。第二層享受AI帶來的效率紅利,沾沾自喜。第一層還不知道發生了什么。
2028年(2年后),第三層技能復利開始顯現,成為“AI+領域專家”,占據關鍵崗位。第二層基礎技能退化,開始依賴AI才能完成工作,失去判斷力。第一層勞動力市場壓力驟增,被迫快速學習AI,但窗口期已過。
2030年(4年后),第三層駕馭AGI,創造新價值,獲取資本收益。第二層被AI取代(因為失去了監督AI的能力)。第一層被第二層擠壓,淪為“經濟無用階層”。
最殘酷的發現:第二層和第一層的終點是一樣的,都會被淘汰,或者遠遠拉在后面。區別只是:第二層體驗過“效率紅利”后跌落,第一層從未起飛就墜毀。
IMF在2025年1月發布的工作論文《AI Adoption and Inequality》提出了一個矛盾的預測:AI可能降低工資不平等(因為沖擊高收入崗位),但會擴大財富不平等(因為精英能利用AI獲取資本收益)。
換句話說:工資差距縮小了,因為大家都變窮了;但財富差距史無前例地擴大了。
李開復作為中國AI領域的未來學家,曾多次發表關于AI帶來的社會變革和就業流失的見解。他強調:“由于AI技術比預期發展得更快,這種社會變革的時間線也大大縮短了。”
硅谷頂級風投A16z的投資人在2025年的預測報告中指出:OpenAI和賓夕法尼亞大學的研究顯示,有了大模型,約15%的美國工人任務可以更快完成。而用了大模型構建的軟件或工具,這一比例可提升至47%-56%。
谷歌的AI負責人、諾貝爾獎得主哈薩比斯,在一月份的達沃斯論壇上更是語出驚人。他認為AI革命比工業革命大一百倍,而更恐怖的是它將會發生在十年到二十年的時間內。
所以,可以說,這種巨大的壓縮效應,使得接下來的三年,成為決定無數人命運的時間窗口。
關鍵窗口期:一道正在關閉的門
2030年之前的幾年被很多人視為關鍵窗口期。
OpenAI前研究員Leopold Aschenbrenner在2024年發布了165頁的報告,預測OpenAI最早可在2027年實現AGI。他感嘆:“真正理解AI正在多快進化的人也許只有幾百個。”
山姆·奧特曼曾在多個場合表示:我們距離AI超級智能可能只有“幾千天”。幾千天是多久?可能是十年,可能是五年,也可能是三年。
書中提出,我們正處在一個根本性規則被重寫的歷史性“相變”之中。這不是一個漸進的改良,而是一個不可逆的轉折點,其核心驅動力是人工智能的指數級發展。
作者估計,完成這一轉變、使舊規則徹底失效的“窗口期”大約只有一千天。
但窗口期對于不同的人,意義完全不同。對第三層人,這是建立不可逾越優勢的時機。對第二層人,這是最后的轉型機會。對第一層人,這是一道正在關閉的門。
奧特曼曾在一次訪談中說:“在穩定時期,市場格局固定,大公司有資源、渠道、品牌,新公司很難突圍。但在技術劇變期,原來的規則被打破了。這時候,誰能在混亂中找到方向,誰就可能脫穎而出。”
但他沒說的是:大多數人連“混亂”都看不見。
直面AI的出路:三條生存法則
基于Anthropic論文的科學證據,我覺得有三條生存法則,供大家參考:
法則一:永遠保持認知參與。
AI一定要用,并盡量使用最強的模型,但不能依賴AI,不要使用應試教育的方式用AI,要用AI學習如何學習。
不要把AI生成的內容當作“成品”,要當作“初稿”。強制自己追問“為什么”。論文證據:高分組都是“主動提問型”,得分65%-86%。低分組是“被動接受型”,得分24%-39%。
讓AI生成內容后,問它:“為什么這樣設計?”主動挑戰AI的答案:“有沒有更好的方法?”把AI當作陪練,輔助你思考,而非替你思考。
法則二:不要回避錯誤,要盡快盡可能地犯錯。
允許自己犯錯和調試。論文證據:對照組遇到3倍錯誤,反而學得更好。錯誤是不可外包的學習過程。先自己嘗試,實在不行再問AI。
多用AI去解決問題,去創作作品或產品,一定要投身到這一場AI創富的浪潮當中;而不僅僅滿足于獲得了什么信息,學到了什么知識或技能,因為今天的大部分技能可能很快就會過時。但是那種能夠迅速完整地創作一件東西、賺到一份收入的感覺和體會是不會過時的。
法則三:培養元認知能力。
不僅要“會做”,更要“懂為什么”。論文證據:概念理解得分差距最顯著。高分組對原理的理解遠超低分組。理解原理才能監督AI。
學習任何新技能時,先理解底層邏輯。不滿足于“能用”,追求“懂原理”。培養“第一性原理”思維,成為AI的主人,更好地導演你人生的劇本。
古希臘哲學家赫拉克利特說:“人不能兩次踏進同一條河流。”AI時代的河流,流速比任何時代都快。而且,沒有人能夠置身事外。
如果你是第一層:窗口期雖然在關閉,但還沒有完全關上。關鍵是:跳過“依賴陷阱”,直接學“駕馭方法”。不要追求“快速上手”,要追求“深度理解”。
如果你是第二層:停下來,檢查自己是否完全依賴AI生成內容、從不問“為什么”、遇到錯誤就讓AI修復。如果是,你正在自我廢除。改變還來得及。從今天開始,保持認知參與,主動掙扎,培養判斷力。
如果你是第三層:記住:這不是零和游戲。如果第一層和第二層都被淘汰,誰來支撐這個社會?誰來消費你創造的產品?誰來維持文明的多樣性?人類作為整體需要升級。
《自然》雜志昨天那篇文章的作者寫道:AGI的到來,意味著我們必須重新思“智能”這個概念本身。但更重要的問題是:當機器獲得了與人類相當水平的智能,人類如何避免淪為機器的工具?【懂】
歡迎訂閱不懂經知識星球,星球即將漲價。
我是不懂經的經叔,國內最早翻譯介紹了納瓦爾的《如何不靠運氣獲得財務自由》,以及影響了納瓦爾、中本聰、馬斯克等大佬的《主權個人》。
不懂經知識星球,眾多百萬粉絲大V、千萬及億萬富翁訂閱。專注分享一人企業、一人創投主題,關鍵詞:AI、IP、創投、科技及商業前沿的高杠桿內容。

愈懂愈自由
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.