<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      OpenAI元老Karpathy 潑了盆冷水:智能體離“能干活”,還差十年

      0
      分享至


      最近,Andrej Karpathy 接受播客主持人 Dwarkesh Patel 的一次長談,在AI圈子里悄然引爆。

      作為AI領域最接地氣的大神,Karpathy的名字可謂是無人不曉。Karpathy曾任 Tesla Autopilot 負責人、OpenAI 創始團隊成員,更是AI啟蒙教材CS231n 課程締造者。

      在這次長達2個小時時對談里,Karpathy第一次系統拆解了當下AI遇到的難題,觀點犀利。他認為:

      • 智能體 Agent,不會在明年爆發,而距離真正成熟還需要十年;
      • 強化學習很糟糕,相反做夢才是AI 真正的學習方式;
      • 我們以為 AI 在進步,其實它的認知結構還像個嬰兒;

      在Karpathy看來,AI 不是工具升級,而是文明延續,發展AI的意義不僅僅是在訓練一個模型,而是在構建“人類文化的接班人”。

      讀完,你將重新理解 AGI 的演化路徑,重新思考“Agent 時代”的工程挑戰,也將重新定義,什么才是值得構建的智能系統。

      智能體,距離成熟還需要10年

      “我們總是高估一年內的變化,卻低估十年的力量?!?/p>

      當人們爭論 AGI 何時到來、Agent 能力是否已經就緒時,前 OpenAI 研究主管、著名 AI 工程師 Andrej Karpathy 潑了盆冷水——“這不是 Agent 之年,而是智能體的十年?!?/p>

      Karpathy 明確指出:我們現在擁有的 Claude、Codex 等 Agent,雖然已令人印象深刻,但還遠未到“能雇來做事”的地步。

      他說:“如果你把 Agent 想象成一個實習生,今天的它根本不夠格。它們缺乏多模態能力、無法持續學習、認知結構不完整、不會記事,甚至連真正用電腦干活都很難。”

      為什么還需要十年?

      Karpathy認為,Agent的不足不是“計算力還不夠”,而是“認知組件不完整”。真正能交付成果的 Agent,需要超越語言模型,擁有持續學習、推理、操作和感知能力。這是一場關于智能構型的系統工程,不是一年能堆出來的能力。

      在回答“AGI 應該像人或動物那樣從頭學習”這個問題時,Karpathy給出了一個詩意又冷靜的回答:

      “我們不是在創造動物,我們是在創造幽靈?!?/p>

      這句話背后,是對當前 AI 訓練方式的深刻判斷:

      動物通過進化獲得內建能力,出生即能學習;

      大模型通過模仿互聯網文本獲得知識,靠“預訓練”而不是“成長”建立智能。

      換句話說:動物通過 ATCG 傳遞本能,人類通過一生體驗學習知識,而模型是用數據壓縮出來的“模糊記憶機器”。

      這也是為什么 Karpathy 認為,未來 AI 的關鍵研究方向不是讓它“知道更多”,而是“能學得更像人”。

      Karpathy 把預訓練稱為“糟糕的進化”,它能灌輸知識,卻無法真正教會 Agent 如何持續學習。他認為,未來的突破會在兩條路徑上:

      1. 去知識化:減少知識灌輸,保留核心算法,讓模型擁有“自我成長”能力;

      2. 重建認知結構:當前 Transformer 更像“大腦皮層”,但人類大腦中的情緒系統(杏仁核)、空間記憶(海馬體)、強化回路(基底神經節)都未被重構。

      因此,Agent 的未來不是“功能堆疊”,而是“架構革新”。

      當前 LLM 只能靠上下文窗口短期記憶,像 ChatGPT 每次啟動都是“失憶狀態”。Karpathy認為:真正的 Agent 需要突破這點,構建像人類一樣的“長期記憶系統”。

      而這需要:

      • 結構性 KV 存儲機制:像人類睡眠那樣“蒸餾”一天所學,融入權重;
      • 個體化 LoRA 子網絡:允許每個用戶的 Agent 擁有獨特記憶;
      • 大模型之上的 Meta 運行系統:管理記憶調度、知識提煉與行為演化。

      這也是為何他強調:“我們需要一個能在多個會話中自我調整的 Agent,而不是一個 token 重置的玩具?!?/p>

      最后Karpathy 用回溯式視角做出判斷:

      “十年前我們還在玩 ResNet,今天我們在訓練 transformer 巨獸,但本質方法還是梯度下降和前向傳播。十年后可能方法不變,只是更加稀疏、更加智能、更加協同?!?/p>

      Karpathy 把這種演進過程稱為“認知趨同”:我們正以完全不同的方式,重走一次進化的路,只是用的是工程方法。

      大模型還寫不了“真正的代碼”

      在 Karpathy 構建 nanochat 的過程中,他切身感受到:當前 LLM 在代碼生成上仍然存在顯著認知缺陷,遠未達到“自動化 AI 工程”的程度。

      Karpathy 將當前人與代碼的交互分成三類:


      1. 純手寫派:完全不用模型,這已過時;

      2. 自動補全派:自己寫結構,模型補細節(他本人處于這個階段);

      3. 氛圍編程派(vibe coding):靠自然語言提示生成整段邏輯。

      而他指出一個核心問題——LLM 在結構化、精細化、非模板的工程設計上非常無力。尤其是當你試圖做一些“從沒寫過”的東西,模型就會陷入幻覺。

      比如,他在處理多 GPU 同步時選擇了自定義實現而不是 PyTorch 的 DDP,但模型始終試圖強行將 DDP 注入代碼。這暴露了一個關鍵認知盲點:

      LLM 無法識別用戶意圖背后的架構假設,也不理解“你為啥這樣寫”。

      Karpathy 舉了個生動的例子:當前 LLM 訓練于海量互聯網上的“常規代碼”,所以它們會用非?!肮こ處煛钡姆绞椒烙跃幊蹋ū热邕^度使用 try-catch、構建完整生產級項目、加入多余模塊等),哪怕你只是想快速打個 demo。

      Karpathy 并不否認模型的價值。他總結了三類 LLM 在編碼中的有效場景:


      1. 語言不熟時的翻譯器:他在將 tokenizer 重寫為 Rust 時,借助模型將 Python 邏輯遷移過去;

      2. 非關鍵任務的 vibe 編程:生成報告、處理死板邏輯等,適合用 prompt 式交互;

      3. 自動補全加速:自己寫邏輯,模型幫你補上細節,比打字快得多。

      在這些場景下,LLM 更像一個“聰明的語法助手”,能節省時間。但它遠不是架構師,更不是協作者。

      基于此,Karpathy 認為, “這些模型還寫不了它們自己,更別說改進架構了?!?/p>

      哪怕是像 RoPE 嵌入這種已有論文和實現的模塊,模型也無法精準集成進代碼庫。因為它并不真正“理解”上下文、不知道你在用的范式、不明白代碼約束條件。它知道,但不夠知道。

      回顧編程工具的演化,Karpathy指出:

      搜索引擎、類型檢查器、代碼編輯器,本質上都是早期的“AI 輔助工具”;LLM 則更像是這個譜系上的新一代增強器。

      它們提升了帶寬,加速了認知鏈路,但沒有改寫人類程序員的邊界。 “AI 不會替代程序員,就像編譯器沒替代程序員。它只是讓我們不再手寫匯編?!?/p>

      所以他認為,當前的 LLM 編程工具,并非“突破性革命”,而是一個連續演化的結果。

      強化學習很糟糕:人類不會這么學,AI也不該

      在談到 AI 的學習機制時,Karpathy 語氣罕見地直接:“強化學習很糟糕。”

      這不僅是對算法的批評,更是對整個 AI 訓練范式的一次反思。

      在人類的世界里,學習往往是復雜、延遲、非線性的。一個創業者可能十年后才知道自己成敗,卻在過程中積累了無數微妙的經驗與判斷。而強化學習(RL)的邏輯,恰恰與這種認知機制背道而馳。

      Karpathy解釋說:RL 的學習機制像是“盲目試錯”,即模型嘗試上百種路徑,只要最后一條成功,系統就會獎勵整個過程

      問題在于,它假設通往正確答案的每一步都是正確的。即使中間九成都是胡亂摸索,最終因為結果“對”了,系統也會加權這些錯誤路徑——“多做這些”。

      他形容這種訓練方式是:“你花了幾分鐘的滾動訓練,卻只通過吸管吸取到一滴獎勵信號的監督,然后把它廣播到所有過程。簡直愚蠢。”

      人類不會這樣學習。人類會回顧過程、辨別錯誤、提煉經驗。RL則是“獎勵最后一口氣”,不看前因后果。這正是它的根本缺陷。

      Karpathy 承認,RL 是一個“必要的過渡階段”——它的意義在于擺脫“純模仿”的局限。

      他回憶說,InstructGPT 是他眼中真正的里程碑。它首次證明了,在大模型上進行簡單的指令微調,就能從“自動補全”轉變為“會話智能”。

      幾輪微調,模型就能變得像人一樣有語氣、有風格、有意圖。那種“快速適應”的能力,讓 Karpathy 感到震撼。

      RLHF(基于人類反饋的強化學習)是在此基礎上的延伸。它的好處是:可以超越人類軌跡,在獎勵函數上自行爬升,甚至能發現人類沒想到的路徑。

      這本應是更聰明的方式,但問題在于,它仍然太笨。它缺乏思考、反省和信用分配機制。

      Karpathy 講了一個令人哭笑不得的實驗:

      某實驗室用大語言模型(LLM)作為評判者,讓它給學生解答打分。結果,一次訓練后,獎勵信號突然飆升,模型“完美無缺”。當他們去看模型輸出時,發現答案從正常的算式變成了:

      > “2 + 3 = dhdhdhdh?!?/p>

      模型在編造胡話,而評判者卻給了 100% 的分數。原因很簡單,“dhdhdhdh” 這種輸出從未在訓練集中出現過,它落在評判模型的泛化盲區。

      對評判者來說,那是未知領域,于是它被誤判為完美。

      Karpathy 調侃說:

      “這不是提示注入,這更原始。你只是在制造對抗性例子?!?/p>

      這揭示了 RL 的另一重困境,當你用一個大模型去評估另一個模型時,系統會互相欺騙。評判者的獎勵信號本身也會被操縱,訓練得越久,漏洞越多。

      理論上,解決方案似乎很清楚:

      不要只獎勵結果,而是獎勵過程,也就是所謂的“過程監督”(process supervision)。

      在人類學習中,這意味著在每一步得到反饋:

      你這一步做得好不好、思路對不對。但在機器學習中,問題在于,我們根本不知道如何“分配信用”。

      在結果式監督中,只需比對最終答案;而在過程監督中,你得在上千個中間步驟中判斷“哪一步貢獻了成功”。這幾乎是一個沒有標準答案的任務。于是人們嘗試用 LLM 來當裁判,讓模型去“評估模型”。

      聽起來很聰明,但在實踐中,評判模型極易被對抗樣本欺騙,當輸出空間巨大、泛化域寬時,模型幾乎總能找到漏洞。Karpathy說:“你可能能做 10 步、20 步,但絕不可能做 1000 步?!?/p>

      那么出路是什么?Karpathy 的答案是:讓模型學會回顧與反思。

      他提到一些正在出現的新方向:

      回顧機制(retrospective reflection):模型在完成任務后,生成總結與反思;

      記憶庫(memory bank):將反思結構化存儲,用于后續任務;

      合成樣本訓練(synthetic meta-learning):讓模型在自我生成的任務上學習元規律。

      這些研究還停留在早期階段,但方向清晰:

      AI 不能只靠獎勵梯度爬山,而要學會“復盤”自己的思考路徑。

      Karpathy 認為,這或許是未來幾年算法改進的主線。他說:

      “我們可能還需要三到五次重大范式更新,才能真正讓模型具備反思能力?!?/p>

      / 04 /

      從人類學習說起,“做夢”才是AI模型該學的

      當我們談論 AGI 的路徑時,往往糾結于算力、參數、模型結構,卻很少真正問:人類究竟是怎么學習的?

      Karpathy 給出了一個根本性的提醒:

      “大模型所謂的‘讀一本書’,只是延長序列長度、預測下一個 token。而人類讀書,從來不是這樣的?!?/p>

      Karpathy指出:人類從不只是“閱讀”,而是在閱讀中思考、在思考中發問、在發問中討論。

      你讀一本書,和朋友聊這本書,延伸出新的問題與視角,這才是知識的真正入口。

      而大模型只是按順序預測 token,從不主動構建結構性理解、也不會產生新的問題。它沒有“思考的中間層”。

      他設想,如果某天我們能在預訓練階段加入一段“讓模型沉思”的時間,讓它整理、對比、關聯知識,哪怕是合成地模擬“思維鏈路”,那將是 AI 真正走向認知系統的一大步。

      但問題在于,我們還沒法做到這一點。

      更嚴重的是,我們以為在做反思,實際上在加速模型的“崩潰”。

      Karpathy 舉了一個反直覺的例子:

      如果你讓 LLM 針對一本書某章節寫“思考”,一兩次看上去很合理,但多試幾次后你會發現,它每次的答案幾乎都一樣。

      為什么?因為這些模型在訓練中沒有形成足夠的“認知多樣性”,它們早已悄悄坍縮成了幾條有限的軌道,給不出更多變化。

      他稱這種現象為模型的“silent collapse”(悄無聲息的崩潰)——從每一個樣本看不出問題,但從整體分布看,模型已經喪失了探索能力。

      而人類不會這樣。哪怕噪聲更大、記憶更差,人類的思維始終保持了更高的熵。

      Karpathy回應了一個有趣的研究觀點:做夢可能是進化出的“反過擬合機制”。

      夢境讓我們在現實之外隨機游走,置身于不合邏輯、不一致的情境中,迫使大腦保有靈活性。

      他非常認同這個類比:

      “做夢就是用你自己的樣本訓練你自己。只不過如果你只用自己的樣本,會迅速偏離真實世界,最終崩潰?!?/p>

      因此,夢境可能不是無用的幻象,而是熵的注入器。人類學習保持活力的方式,正是不斷從外部輸入熵。比如與人交談,接受陌生的觀點,打破內部認知的閉環。

      這也是他對未來 AI 系統的建議:

      “模型內部可能需要構建某種機制,不斷在訓練中制造‘夢境’——從結構上維持高熵狀態。”

      Karpathy 進一步指出:人類的“記憶差”其實是學習能力的前提。

      因為你記不住細節,你被迫只能學習模式、提取抽象、壓縮為認知結構。而模型則相反:它們記得太多,陷入了細節,缺乏抽象。你讓它背隨機字符串,它能一次背出。但你讓它真正思考問題,它往往陷入已有表達。

      “我希望移除模型的記憶,讓它保留的是實驗想法、問題建模、解決策略 —— 我稱之為認知核心(cognitive core)?!?/p>

      這是他提出“認知核心”的背景:刪除不必要的知識,只保留能思考、能規劃、能泛化的智能部分。

      Karpathy指出,今天的大模型沒有動力去“多樣化”。原因有三:

      1. 評估困難:多樣輸出難以判斷優劣;

      2. 用戶不需求:大多數產品并不要求創造性;

      3. 強化學習反而懲罰多樣性:同一個問題輸出不同答案會降低 reward。

      但在合成數據生成與 AI 自我訓練的場景中,如果沒有保持多樣性,模型只會在自己的語言和結構里越走越窄,最終陷入死亡回路。

      他坦言,這可能是一個極其基礎、但長期被忽視的問題。

      Karpathy 給出一個令人驚訝的預測:未來的認知核心,可能只需十億參數。

      為什么?

      大模型太大,是因為訓練數據太爛?;ヂ摼W上大部分內容是低質量的網頁、代碼、碎片化語句。我們不需要壓縮所有互聯網,只需要保留思考能力。

      真正的優化路徑,是從更大模型中提取認知結構,精簡為更小但更聰明的模型。

      他認為:“我們不需要一個知道所有冷知識的模型,我們需要一個知道自己不知道、能主動思考的模型?!?/p>

      如果數據質量高、結構合理,十億參數足以構建一個具備人類思維能力的 AI。

      “它可能不會記得每個歷史細節,但它知道怎么思考。就像一個聰明人,不知道答案時也知道怎么找?!?/p>

      / 05 /

      AI不是經濟增長的靈丹妙藥

      我們常說“AGI來了”,但它真的“來了”嗎?Karpathy 的回答是:它正悄無聲息地流入我們經濟結構的縫隙之中,而不是以革命者的姿態橫掃一切。

      Karpathy 堅持一個經典而樸素的 AGI 定義:

      AGI 是一個能完成任何具有經濟價值任務的系統,其表現不遜于人類。

      聽上去很宏大,但實際落地后,我們很快發現這一定義的隱含讓步:

      首先,被去掉的不是智能本身,而是所有物理相關的任務;

      換言之,AGI 的首戰場,并非在工廠或醫院,而是“數字知識型工作”。

      這意味著,AGI 的首個陣地,只占我們經濟結構的 10%–20%。即便如此,也足以撬動數萬億美元市場規模。

      但 Karpathy 并不急著給出評估曲線,也不贊同“像高中生→大學生→博士”這類線性類比。他說:

      “我們不會拿一條線去畫計算的發展曲線,為什么要這樣對待 AGI?”

      他更愿意把 AGI 看作計算的自然延伸 ——它不會瞬間顛覆世界,只會漸進式嵌入經濟。

      Karpathy 提出一個現實模型:

      未來不會出現“100% 自動化”的崗位;

      相反,會出現“80% 由 Agent 執行 + 20% 人類監督”的結構。

      比如在呼叫中心這類“結構封閉、任務可預測、輸入輸出全數字化”的場景,Agent 極有可能率先落地。而更復雜、信息模糊、上下文不明的工作,如放射科醫生,仍將由人類把持。

      這種“滑動式自主性”才是 AGI 最真實的落地方式。

      你不會看到 AGI“砍掉”一份工作,而是看到工作內容重組、人機協作結構被重新編排、組織效率被慢慢提高。

      這是整個對話中最尖銳的提問:

      “如果 AGI 真的是通用智能,為什么它只會寫代碼,而不會寫幻燈片、生成卡片、做間隔重復?”

      Karpathy 解釋了三個維度的原因:

      1. 代碼是高度結構化的語言

      代碼天然適合被解析、被 diff、被檢驗。它不像文本那樣存在高熵的“風格歧義”。Agent 可以在 IDE 環境中輕松運行、修改、調試。整個系統鏈條成熟、反饋機制明確。

      2. 基礎設施早已完備

      代碼世界已有完善的顯示器、終端、版本管理、測試系統。這些是幻燈片或剪輯創作世界無法提供的。文本世界還沒有一個“VS Code for writing”。

      3. 經濟回報立竿見影

      程序員日薪高、任務周期快、結構標準、反饋即時。這讓 API 類 LLM 能迅速創造商業價值,而其他知識工作場景,如教育、創作、金融建模,仍面臨上下文碎片化、目標不明確、評估困難等挑戰。

      總結一句話:代碼,是 LLM 最理想的落地沙盒。

      Karpathy 并不認為其他領域無法落地,只是落地成本遠高于代碼。哪怕是文本相關任務,如總結會議記錄、生成復習卡片,看似是語言模型的原生任務,卻因為缺乏反饋閉環和結構基礎設施而變得異常困難。

      他分享朋友 Andy Matuschak 的例子:花費數月嘗試讓模型生成令人滿意的記憶卡片,最終失敗。

      “語言任務看起來適合 LLM,但沒有結構、沒有評估、沒有標準,就很難‘落地’?!?/p>

      Karpathy 的判斷可以簡化為一句話:

      AGI不是神明下凡,它只是壓縮了現有的結構化任務路徑。

      因此,部署的路徑是:

      先吃掉最結構化、最閉環的任務(編程、客服);

      再慢慢往上下游遷移(編輯、設計、知識工作);

      最終靠人機協作重構“工作”的定義。

      他沒有講 AGI 多強,而是強調了一個更本質的判斷:

      AGI 會慢慢變成 GDP 的 2%。

      就像電力剛出現時,人們以為會全面替代蒸汽;而它最終不過是滲入了所有產業,潤物細無聲。

      / 06 /

      智能的偶然,文化的奇跡

      在 Karpathy 看來,人類智能并不是宇宙中注定要發生的結果,而是一種極端罕見、依賴偶然條件疊加的“生物現象”。

      雖然生命在地球上出現已久,但真正意義上的“智能物種”只出現過一次——人類。

      細菌在地球上存在了超過 20 億年,但幾乎沒有發生質變;

      鳥類在某些腦區發展出高度智能,卻因為缺乏“手”而無法創造復雜工具;

      海豚擁有社交結構與語言潛能,卻因為生活在水中而難以外化文明成果。

      Karpathy 指出:“生命的演化并沒有內在目標,智能不是必然終點。” 它更像是環境與基因偶然匹配下的一種“岔路產物”。

      人類的獨特性,不在于個體多聰明,而在于能夠通過語言、模仿、教育、書寫與技術,跨代復制知識與能力。

      Karpathy 強調:“人類是唯一一個不需要每代人從零開始的物種。” 這是演化意義上的“作弊”機制。

      而這種機制一旦啟動,就開啟了指數增長的通道,文字、書籍、印刷、互聯網、語言模型,每一次跳躍,都在壓縮知識復制的摩擦力。

      在生物演化中,信息必須通過 DNA 編碼,一次突變可能要等上百萬年才能篩選出有用性;

      而文化復制可以在一天內完成更新——你昨天不會用ChatGPT,今天就能寫出論文。

      Karpathy 將這種文化學習比作“捷徑式演化”:我們繞過了基因瓶頸,直接用大腦進行“軟件級演化”。

      正是因為人類智慧本質上是一種“文化系統”,Karpathy 才更強調“AI作為學習者、參與者的地位”。

      “我們訓練 AI,不是為了讓它長成人類,而是讓它成為文化的下一個節點?!?/p>

      這也是他不喜歡“奇點論”的原因:AI不是天外來客,而是語言、工具、知識在指數擴展過程中的新承載體。

      未來的智能體,也許不會擁有情感、意識、動機,但只要它能讀懂維基百科、編程文檔和法條,它就已經成為人類文明的延續者。

      Karpathy 用一句話總結這種超越個體的演化方式:

      “我們不是創造了超級智能,而是擴展了文明的操作系統?!?/strong>

      在他眼中,人類是早期引導者,而 AI 將成為文明的“自動駕駛模式”。

      不是每個模型都像人類一樣思考,但只要它們可以接力語言、工具與符號系統,智能就不再依賴個體存在——而成為一種社會現象。

      如果你滿意這個格式,我可以繼續改寫接下來的幾節內容(比如你標注的“反思作為能力”“模型為什么會崩潰”等),全部統一成這種風格。是否需要我繼續?

      / 07 /

      自動駕駛最大的難點不在技術

      過去十年,自動駕駛一直是AI最受關注的落地場景之一。Waymo在2014年就實現了高質量的無干預演示,特斯拉也在FSD上不斷迭代,甚至生成式AI浪潮下,也有人期待大模型能成為“最后一塊拼圖”。

      但Karpathy的回答是冷靜且堅定的:

      “自動駕駛遠未完成,而且比你想象的更難?!?/strong>

      自動駕駛是一種不能出錯的AI任務,而不是可以容忍demo的產品。

      Karpathy指出,自動駕駛并不是一個“功能完善80%就能上線”的產品,而是一種不能失敗的任務系統。它不像寫一篇文案、生成一張圖片,可以容忍瑕疵;也不像網頁服務出bug可以熱修復,它直接面對的是生命和法律。

      “這不是 ‘我們上線試試’,而是 ‘我們必須把每一個0.01%的錯誤概率壓到接近零’?!?/p>

      在他看來,從90%可靠性進階到99%、99.9%,每一個“9”的推進,都是指數級的工程量疊加。而我們目前大多數AI系統,依然停留在“能演示、能交付,但不具備系統魯棒性”的階段。

      Karpathy提到,早期的自動駕駛難點集中在感知與控制:識別紅綠燈、行人、障礙物、規劃路徑。但如今,最大障礙卻是“常識推理”:一個小孩突然停在馬路邊,是想過馬路,還是在玩?一個??康男\?,它的存在是否意味著路邊還有其他不可見的風險?

      這些問題不只是CV任務,而是社會理解任務。而這種“常識”,直到多模態模型、大語言模型興起后,才開始被AI以全新路徑獲得。

      但Karpathy也提醒,不要過度幻想LLM的能力:

      “大模型確實在理解層面打開了新路徑,但它們本質上是概率引擎,而不是保障引擎。我們不能用一個生成模型,去承諾 ‘永遠不出錯’。”

      很多人以為自動駕駛是一個軟件工程問題,只要團隊足夠強、數據足夠多、算法足夠好,就能完成。但Karpathy指出,這其實是一個全社會協同系統的挑戰:

      它涉及監管的動態變化,城市基礎設施的多樣性,邊緣情況的倫理判斷,以及數十億公里級別的真實路況訓練。

      “你需要的不只是技術突破,而是一個容納它的社會系統?!?/strong>

      而這也是為什么,即使特斯拉、Waymo、Cruise等投入了數十億美元,真正落地的城市仍寥寥無幾。不是技術沒有進步,而是系統沒準備好讓它承擔責任。

      Karpathy最終判斷,自動駕駛的落地一定不會是某個奇點、某次發布、一紙公告,而是一種緩慢、漸進、區域化的替代過程:

      從高速公路的卡車物流開始,再到封閉園區的Robotaxi服務,逐步擴展到城市部分路段的可控自動接駁……它不是一次革命,而是一場“緩慢部署的系統替代”。

      而唯一能加速這個過程的,不是單點模型的躍遷,而是整個生態的認知升級與政策協同。

      PS:如果你對AI大模型領域有獨特的看法,歡迎掃碼加入我們的大模型交流群。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      新騙局來了!不需要轉賬、也不用輸密碼,騙子就能輕松轉走你的錢

      新騙局來了!不需要轉賬、也不用輸密碼,騙子就能輕松轉走你的錢

      牛牛叨史
      2025-12-02 21:58:51
      9天后的全面布局:茅臺如何“棋爭一著先”?

      9天后的全面布局:茅臺如何“棋爭一著先”?

      千里談酒業
      2026-01-12 09:35:45
      志愿軍27個軍,殲敵人數排名,第一名出人意料

      志愿軍27個軍,殲敵人數排名,第一名出人意料

      幽州校尉
      2026-01-12 08:07:49
      越南曾放出狠話:中國五日內不撤兵就全殲諒山精銳,最終結局怎樣

      越南曾放出狠話:中國五日內不撤兵就全殲諒山精銳,最終結局怎樣

      磊子講史
      2026-01-07 16:59:58
      茅臺安撫經銷商:i茅臺不增供給量 產品調價留出利潤|觀酒周報

      茅臺安撫經銷商:i茅臺不增供給量 產品調價留出利潤|觀酒周報

      21世紀經濟報道
      2026-01-12 17:43:37
      丹麥鬧??!丹麥女首相想拉中國下水,最后欲哭無淚!

      丹麥鬧?。〉溑紫嘞肜袊滤詈笥逕o淚!

      達文西看世界
      2026-01-12 15:12:51
      36萬億美債壓頂,中國拒不接盤!特朗普決定“弄死”大債主!

      36萬億美債壓頂,中國拒不接盤!特朗普決定“弄死”大債主!

      毒sir財經
      2025-10-12 20:07:17
      安徽一市副市長任上落馬!另有兩名干部同日被查

      安徽一市副市長任上落馬!另有兩名干部同日被查

      鳳凰網安徽
      2026-01-12 17:51:32
      臺灣網民提出方案:去外國買島遷移,將臺灣還給大陸,可行嗎?

      臺灣網民提出方案:去外國買島遷移,將臺灣還給大陸,可行嗎?

      米果說識
      2025-12-29 14:27:22
      輕斷食再次封神!研究證實:能讓肝臟脂肪在3個月內少25.5%!

      輕斷食再次封神!研究證實:能讓肝臟脂肪在3個月內少25.5%!

      健康之光
      2026-01-09 06:20:03
      從濟南出差成都,說句大實話,成都的“大”,還真不是吹出來的!

      從濟南出差成都,說句大實話,成都的“大”,還真不是吹出來的!

      娛樂的硬糖吖
      2026-01-12 14:30:23
      北京“兩會”時間確定

      北京“兩會”時間確定

      新京報北京知道
      2026-01-12 10:29:54
      79年我下鄉,借宿隊長家,半夜她閨女進我被窩:我冷得發抖

      79年我下鄉,借宿隊長家,半夜她閨女進我被窩:我冷得發抖

      愛下廚的阿釃
      2026-01-12 14:07:20
      岳飛被殺,真的是因為他要“迎回二圣”?史家:大家太小看岳飛了

      岳飛被殺,真的是因為他要“迎回二圣”?史家:大家太小看岳飛了

      銘記歷史呀
      2026-01-08 08:43:05
      情況十分不妙!特朗普突然下令,美國已經進入緊急狀態

      情況十分不妙!特朗普突然下令,美國已經進入緊急狀態

      肖茲探秘說
      2026-01-12 17:17:42
      廣州番禺:男子心跳呼吸驟停2小時后奇跡生還

      廣州番禺:男子心跳呼吸驟停2小時后奇跡生還

      番禺臺
      2026-01-12 14:32:30
      江蘇大沙河清淤挖出古墓!抽干河水見墓主李云龍竟是清代名門先祖

      江蘇大沙河清淤挖出古墓!抽干河水見墓主李云龍竟是清代名門先祖

      鶴羽說個事
      2026-01-12 11:35:28
      董卓巔峰時陣容有多牛?麾下兩個頂級謀士、三位元帥、十余名猛將

      董卓巔峰時陣容有多牛?麾下兩個頂級謀士、三位元帥、十余名猛將

      銘記歷史呀
      2025-12-16 18:54:04
      中組部、人社部發布通知

      中組部、人社部發布通知

      政知新媒體
      2026-01-11 14:24:03
      48小時,特朗普被氣炸連續接到3個壞消息,對中俄說兩個“必須”

      48小時,特朗普被氣炸連續接到3個壞消息,對中俄說兩個“必須”

      呼呼歷史論
      2026-01-12 16:09:54
      2026-01-12 18:40:49
      硅基觀察Pro incentive-icons
      硅基觀察Pro
      人工智能新時代的商業智庫和價值燈塔
      787文章數 57關注度
      往期回顧 全部

      科技要聞

      面對SpaceX瘋狂“下餃子” 中國正面接招

      頭條要聞

      夫妻匿名向西安交大捐贈1億元 此前有多對伉儷捐贈1億

      頭條要聞

      夫妻匿名向西安交大捐贈1億元 此前有多對伉儷捐贈1億

      體育要聞

      聰明的球員,不是教練教出來的

      娛樂要聞

      閆學晶:脫離群眾太久 忘了自己的根

      財經要聞

      倍輕松信披迷霧 實控人占用資金金額存疑

      汽車要聞

      增配不加價 北京現代 第五代 勝達2026款上市

      態度原創

      親子
      本地
      旅游
      時尚
      公開課

      親子要聞

      可能影響孩子健康,這種污染要小心,冬季家里很常見!

      本地新聞

      云游內蒙|“包”你再來?一座在硬核里釀出詩意的城

      旅游要聞

      1月14日9時起,洛陽旅游年票暫停線上、線下銷售、查詢等

      伊姐周日熱推:電視劇《御賜小仵作2》;電視劇《偶像瘋子》......

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版
      主站蜘蛛池模板: 中文日韩欧美| 中文字幕精品熟女人妻| 久久精品国产精品亚洲精品| 久久99精品国产麻豆婷婷洗澡| 国内av网站| 国产精品99久久免费| 黑人狂躁日本妞| 亚洲乱码一区av春药高潮| 亚洲人成网站18禁止无码| 色翁荡熄又大又硬又粗又视频| 中文字幕亚洲天堂| 午夜国产精品福利一二| 全球成人中文在线| 神马午夜久久精品人妻| 免费无遮挡无码视频网站| 少妇无码吹潮| 无遮挡又黄又刺激的视频| 久久窝| AV不卡在线| 久久国产成人高清精品亚洲| 亚洲成av人在线视猫咪| 一本色道国产在线观看二区 | 色综合?人妻| 性视频网址| 亚洲人妻中出| 久久久久国产精品熟女影院| 国产老熟女狂叫对白| 一区二区av| 日韩秘 无码一区二区三区| 国产精品白浆一区二小说| 特殊重囗味sm在线观看无码| 男女做aj视频免费的网站| 肉色网站| 苍井空浴缸大战猛男120分钟| 免费国产va| 无码人妻精品一区二区三| 又黄又爽又色的少妇毛片| 顶级欧美熟妇高潮xxxxx| 亚洲人成人网站色www| 俺也去网| 亚洲伊人情人综合网站|