<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      Alex Wang“沒資格接替我”!Yann LeCun揭露Meta AI“內斗”真相,直言AGI是“徹頭徹尾的胡扯”

      0
      分享至


      編譯|冬梅

      “通往超級智能的那條路——無非是不斷訓練大語言模型、喂更多合成數據、雇上幾千人做后訓練、再在強化學習上搞點新花樣——在我看來完全是胡扯,這條路根本行不通。”

      近日,在一檔名為《The Information Bottleneck》的訪談欄目中,主持人 Ravid Shwartz-Ziv 和 Allen Roush 與圖靈獎得主、前 Meta 首席 AI 科學家 Yann LeCun 展開了一場近兩小時的高質量對話,在訪談中,LeCun 解釋了為什么會在 65 歲這個別人已經退休的年紀他還在創業,此外,他也對當前硅谷主流的人工智能發展路徑給出了罕見而尖銳的評價。

      結束在 Meta 長達 12 年的職業生涯后,LeCun 正將個人學術聲譽與職業“遺產”押注在一套截然不同的 AI 愿景之上。他直言,業界對大語言模型規模化的執念,正在把人工智能引向一條看似高速、實則封閉的死胡同。

      在 LeCun 看來,真正制約 AI 進步的關鍵,并不是如何更快地逼近“人類級智能”,而是如何跨越一個常被低估卻極其困難的門檻——讓機器具備“狗的智能水平”。這一判斷挑戰了當前以語言能力和知識覆蓋面為中心的評估體系。在他看來,現實世界中的理解、預測和行動能力,遠比生成流暢文本復雜得多,而現有以語言為核心的模型,并未真正觸及這一問題的本質。

      基于這一判斷,LeCun 正通過其新公司 AMI 推動另一條技術路線:構建能夠理解和預測世界的“世界模型”(World Models)。與主流生成模型直接在像素或文本層面進行輸出不同,AMI 的核心思路是在抽象表征空間中對世界運行規律進行建模和預測。這種模型關注的不是“生成看起來像什么”,而是“世界將如何演化”,從而為機器提供更接近真實認知的基礎能力。

      這番表態再次凸顯了 LeCun 與當前主流 AI 敘事之間的分歧。在行業普遍押注算力、數據和參數規模的背景下,他選擇回到認知與感知的基本問題,試圖重新定義通往通用人工智能的技術路徑。對 LeCun 而言,這不僅是一場技術路線之爭,也是一場關乎 AI 未來方向的長期下注。

      以下為訪談實錄,經由 InfoQ 翻譯及整理:


      Ravid Shwartz-Ziv :你最近宣布,在 12 年后離開 Meta,正在創辦一家新的創業公司,專注于先進的機器智能,并且致力于世界模型的研究。首先,從大公司轉向從零開始創業,身處其中感覺如何?

      Yann LeCun:我離開 Meta 創立新公司,是看到當前 AI 投資熱潮讓長期研究型創業成為可能。以前這類研究只能依托于 IBM、貝爾實驗室這類壟斷型大企業,或是微軟、谷歌、Meta 等大公司的研究院。

      近年來,盡管我們推動的開放研究曾影響整個領域,但如今包括谷歌、OpenAI 甚至 Meta 在內的許多實驗室正轉向封閉。因此,我認為現在正是時候在 Meta 之外繼續推進我所專注的研究方向。

      Allen Roush:那我想確認下,您的公司 AMI(先進機器智能)是否計劃以開放的方式進行研究?

      Yann LeCun:是的。就拿上游研究來說,我認為,除非公開發表成果,否則不能稱之為真正的研究。如果你只是自己想出一個東西,覺得它前所未有的好,卻不提交給學界檢驗,那很可能只是錯覺。

      我在很多工業研究實驗室都多次見過這種現象:內部對一些項目過度追捧,卻沒有意識到別人已經在做更出色的工作。所以,如果你要求科學家發表工作,首先,這會激勵他們做出更好的研究——研究方法會更嚴謹,結果會更可靠。這對他們自身也有益,因為一個研究項目對產品產生影響,常常需要數月、數年甚至數十年。你不可能告訴研究人員“來為我們工作,但別透露你的研究內容,或許五年后你就能對某個產品產生影響”——這在期間他們無法獲得足夠的動力去做真正有用的工作,而只會傾向于做有短期影響的事情。

      因此,如果你真的想要取得突破,就必須允許人們發表。沒有其他途徑。而這是目前很多行業都在忘記的一點

      Allen Roush:AMI(先進機器智能)它會推出產品嗎?它僅專注于研究,還是有更廣泛的規劃?

      Yann LeCun:不,遠不止于此。它最終是要推出實際產品的。這些產品將圍繞世界模型和規劃等核心技術展開。我們的雄心是,未來能成為智能系統的主要供應商之一。

      我們認為,當前基于大語言模型的架構,雖然在語言處理上尚可,但其構建的智能體系統并不理想。它們需要海量數據來模仿人類行為,且可靠性有限。

      要解決這個問題,正確的方法——也是我近十年來一直主張的——是構建能夠預測 AI 行為后果的模型。然后,系統通過優化計算,找出最優行動序列來完成任務,這就是規劃。我認為,智能的核心在于能預測自身行動的后果,并用于規劃。

      這正是我多年來專注的方向。我們結合了紐約大學和 Meta 的研究項目,已經取得了快速的進展。現在,是時候將這些構想變為現實了。

      Ravid Shwartz-Ziv:那么,您認為目前還缺少哪些關鍵部分?為什么這個過程花了這么長時間?畢竟,正如您所說,您已經為此研究了許多年,但它目前依然沒有超越大語言模型,對吧?

      Yann LeCun:世界模型與大語言模型是兩回事。它旨在處理高維度、連續且含噪聲的數據模態,而大語言模型對此完全無能為力——它們處理圖像或視頻表征的效果并不理想。通常,AI 的視覺能力是分開訓練的,并不屬于 LLM 架構的一部分。

      所以,要處理這類數據,你不能使用生成模型,尤其不能使用那些將數據“切分”成離散符號的生成模型。大量實證表明,這行不通。

      真正有效的方法是:學習一個抽象的表征空間。這個空間會濾除輸入中大量無法預測的細節(包括噪聲),然后在這個表征空間內進行預測。這就是 JEPA(聯合嵌入預測架構)的核心思想。

      讓我回溯一下這段研究歷程。我大概在近 20 年前就確信,構建智能系統的正確途徑是某種形式的無監督學習。

      在 21 世紀初,我開始以此為方向探索。當時的主流思路是訓練自編碼器來學習表征:編碼器將輸入轉化為表征,再解碼還原,以確保表征包含輸入的全部信息。但后來發現,這種“表征必須包含全部信息”的直覺是錯的,它并非好方法。那時我們并不知曉,嘗試了多種方案,例如受限玻爾茲曼機、去噪自編碼器,而我主攻稀疏自編碼器——通過高維稀疏表征來構建信息瓶頸,限制表征中的信息量。

      我和一些學生(包括后來成為 DeepMind 首席技術官的 Koray Kavukcuoglu)圍繞此做了不少博士研究。我們當時的核心目標,是希望通過這種自編碼器預訓練來搭建非常深的神經網絡。

      然而,事情出現了轉折。隨著歸一化、ReLU 激活函數等技術的出現,以及數據集規模的擴大,我們發現在完全有監督的方式下也能成功訓練相當深的網絡。于是,自監督 / 無監督學習的想法就被暫時擱置了。后來,ResNet 在 2015 年出現,基本解決了訓練極深架構的問題。

      但也是在 2015 年,我開始重新思考如何邁向人類級別 AI 這個初心。我意識到,強化學習等方法在樣本效率上極低,難以擴展。于是,“世界模型”的想法——即系統能預測自身行動后果并進行規劃——開始真正成型。

      我在 2016 年 NIPS 大會的主題演講中,就以此為核心主張。隨后,我和學生開始在視頻預測等領域進行具體研究。但我們(包括當時的整個領域)犯了一個同樣的根本性錯誤:試圖在像素級別進行預測。這在視頻這樣的高維連續空間里是幾乎不可能的。

      我知道因為預測本質是非確定性的,所以模型需要潛變量來表征未知信息。我們為此實驗了多年,也探索了擴散模型、基于能量的模型等訓練非確定性函數的方法。

      最終,我領悟到根本的出路是放棄像素級預測。關鍵在于運行一個表征,并在表征層面進行預測,濾除所有無法預測的細節。

      但我早期沒有深入探索這種方法,是因為擔心一個重大問題:坍縮。簡單來說,如果你僅以最小化預測誤差為目標來端到端地訓練整個系統(編碼器 + 預測器),系統會找到一個“作弊”的捷徑:忽略輸入,直接輸出恒定的表征,使預測問題變得 trivial。這個問題在 90 年代研究連體網絡(即聯合嵌入架構的早期形式)時我就已經知曉。

      Allen Roush:回到上世紀 90 年代,其實當時和現在用的還是同一個術語。直到最近,人們仍然在這些網絡里使用它。

      Yann LeCun:沒錯,這個概念本身至今依然是成立的。你可以把問題抽象成這樣:有一個 X 和一個 Y,把 X 看作是 Y 的某種退化、變換或被破壞后的版本。然后你把 X 和 Y 同時送入編碼器,并告訴系統:X 和 Y 本質上是同一個事物的兩個視角,因此它們對應的表征應該是相同的。

      問題在于,如果你只是簡單地訓練兩個共享權重的神經網絡,讓它們對同一對象的略微不同版本輸出相同的表示,系統很快就會“塌縮”,學不到任何有用的東西。因此,你必須確保系統能夠從輸入中盡可能多地提取信息。

      我們當年在 1993 年提出 Siamese Network 的時候,采用的核心思路是加入一個對比項(contrastive term)。也就是說,除了相似樣本對,你還引入不相似的樣本對,通過訓練讓系統在相似樣本上拉近表示,在不相似樣本上拉遠表示。最終形成一個代價函數:相似樣本吸引,不相似樣本排斥。

      這個想法最初來自一個非常實際的需求。有人找到我們,說能不能把手寫簽名編碼成少于 80 個字節?如果可以,就能把簽名寫進信用卡的磁條里,用于信用卡簽名驗證。于是我們設計了一個神經網絡,輸出 80 個變量,每個變量量化成 1 個字節,通過對比學習來訓練它。結果效果非常好。

      但后來他們把方案拿給業務部門看,得到的反饋卻是:“我們干脆讓用戶輸入 PIN 碼好了。”這對我來說是一次非常典型的教訓:技術上可行,并不意味著商業上會被采納。我當時就覺得這件事本身有點不靠譜,因為歐洲已經在使用智能卡了,技術路徑完全不同。

      到了 2000 年代中期,我和兩位學生重新回到這個方向,提出了新的目標函數。這就是后來人們所說的對比學習方法:正樣本、負樣本,正樣本對應低能量,負樣本對應高能量,能量本質上就是表征之間的距離。我們在 2005 年和 2006 年的 CVPR 上發表了兩篇論文,作者包括 Raia Hadsell(現在是 DeepMind 基礎研究部門負責人)以及 Sumit Chopra(現為紐約大學教授,研究醫學影像)。

      這些工作在社區中引起了一定關注,也讓對比學習重新“活”了過來,但效果依然不算理想。比如在圖像任務中,這類方法學到的表示維度往往很低。即便在 ImageNet 上訓練,表征的有效維度也就兩三百,這在當時是相當令人失望的。

      大約五年前,我在 MIT 的一位博士后 Stefan(Stefano)提出了一個我最初并不看好的想法:直接最大化編碼器輸出的信息量。我之所以懷疑,是因為早在 1980 年代,Geoff Hinton 就做過類似嘗試——信息量本身是很難最大化的,因為我們通常只有上界,沒有可計算的下界。

      但 Stefan 提出了一個方法,后來被稱為Barlow Twins,名字來自一位提出信息最大化思想的理論神經科學家。結果這個方法居然真的奏效了。這讓我意識到:這個方向值得深入推進。

      隨后,我們又提出了VICReg(Variance–Invariance–Covariance Regularization),結構更簡單,效果反而更好。最近我和 Randall 還討論了一個可以進一步工程化的方案,叫SigReg,整個系統被命名為Lojic-JEPA。SigReg 的核心思想,是約束編碼器輸出的向量分布接近各向同性高斯分布。

      這個領域正在快速發展,我認為未來一兩年內還會有顯著進展。這是一條非常有前景的技術路線,用來訓練能夠學習抽象表征的模型,而抽象表征恰恰是關鍵。

      1 大模型現在缺失的關鍵要素是什么

      Ravid Shwartz-Ziv:在你看來,現在還缺失的關鍵要素是什么?是更多算力,還是更好的算法?你是否認同“苦澀的教訓”(Bitter Lesson)?另外,你怎么看 2022 年之后互聯網數據質量下降的問題?有人把 LLM 之前的數據稱為“低背景輻射鋼鐵”,你認同這種說法嗎?

      Yann LeCun:我覺得自己基本上不太受這個問題的影響。原因很簡單:如果你要訓練一個性能還算過得去的大語言模型,就必須使用幾乎整個互聯網中所有可獲取的文本數據,再加上一些合成數據和授權數據。兩三年前,一個典型模型的預訓練規模大約是 30 萬億 token。一個 token 大概 3 個字節,這相當于 101? 字節的數據量。

      這意味著什么?意味著模型必須具備極大的存儲能力,因為文本中包含的是大量相互孤立的事實。文本冗余度并不高,本質上是“記憶型”數據,因此你需要非常大的網絡來存儲并復述這些事實。

      現在我們對比一下視頻數據。101? 字節的視頻,大約相當于 1.5 萬小時的視頻內容。這聽起來很多,但實際上只是 YouTube 半小時的上傳量,也差不多是一個四歲孩子一生中清醒時間看到的視覺信息總量。四年的清醒時間,大約就是 1.6 萬小時。

      而現實世界的視頻數據,結構要比文本豐富得多。我們現在已經有視頻模型,比如去年發布的 V-JEPA 2,它使用的訓練數據相當于一個世紀的視頻量,而且全部是公開數據。盡管視頻在字節層面更冗余,但正是這種冗余,使得自監督學習成為可能。

      如果數據是完全隨機的,自監督學習是無法進行的。你必須依賴冗余結構。正因如此,真實世界的數據,尤其是視頻,遠比文本更有學習價值。這也是我一直堅持的觀點:僅靠文本訓練,永遠不可能達到人類水平的智能。

      Allen Roush:那在“世界模型”和“現實 grounding”這個問題上,你怎么看?有人認為世界模型就是一個高度逼真的模擬器,比如像《星際迷航》里的全息甲板(Holodeck),你認同這種理想嗎?

      Yann LeCun:這是一個非常好的問題,因為它直指問題的核心,也恰好說明了我認為當前主流認知有多么偏離方向。

      很多人以為,世界模型就是對現實世界每一個細節的完整復刻,本質上是一個模擬器。由于深度學習的流行,大家自然會想到用神經網絡來做模擬,尤其是視頻生成,看起來非常炫酷。

      但問題在于:一個視頻生成模型,并不保證它真正理解了世界的底層動力學。它可能只是學會了表面統計相關性。認為模型必須復現現實的每一個細節,這是一個錯誤,甚至是有害的想法。

      舉個例子:計算流體力學(CFD)。我們用超級計算機模擬飛機周圍的氣流,把空間切成小立方體,在每個立方體里記錄速度、密度、溫度等變量,然后解偏微分方程。即便如此,這種模擬在湍流等混沌情況下也只是近似正確。

      但你要注意,這已經是對真實物理過程的高度抽象了。真實世界中,氣流是由分子碰撞產生的,但沒有人會去逐分子地模擬,那樣的計算量是不可承受的。

      再往下推,你可以說應該用量子場論來描述一切,但那同樣是不現實的。我們既無法測量宇宙的波函數,也無法提供所需的計算資源。

      所以我們做了什么?我們發明了抽象層級。從粒子、原子、分子,到細胞、器官、個體、社會、生態系統。每一層抽象都會忽略下層的大量細節,而正是這種忽略,使我們能夠進行更長期、更穩定的預測。

      世界模型也一樣。它不需要是現實的逐像素模擬器,而是在抽象表征空間中,只模擬與任務相關的那部分現實。

      如果我問你:100 年后木星在哪里?你并不需要關于木星的全部信息,只需要 6 個數字:三個位置坐標,三個速度分量,其余信息都無關緊要。

      2 合成數據和模擬環境對大模型意味什么

      Allen Roush:那你怎么看合成數據和模擬環境?比如游戲數據,是否會引入偏差?

      Yann LeCun:合成數據當然是有價值的。孩子通過游戲學到大量知識,本質上也是在受控的模擬環境中學習。

      但確實要警惕某些模擬的失真。例如很多視頻游戲里的物理效果是為了“好看”,而非真實。這種偏差如果不加控制,可能會影響模型在現實世界中的泛化能力。

      關鍵不在于是否使用模擬,而在于你在哪個抽象層級上訓練模型。很多基礎的世界規律——物體會一起移動、會下落、不會同時出現在兩個地方——都是在非常抽象的層面上學到的,而不是通過語言學到的。

      大語言模型并不真正理解這些規律,它們只是被微調到給出“看起來正確”的答案。這是復述,不是理解。

      而這些概念,是可以通過非常簡單、抽象的環境學會的,比如二維冒險游戲。即便環境并不完美,但它們仍然能教會模型一些極其基礎、卻至關重要的世界結構。

      Ravid Shwartz-Ziv:所以你認為,這條路還能繼續推進嗎?

      Yann LeCun:可以,而且必須繼續推進。真正重要的,是讓模型學會抽象世界的結構,而不是背誦世界的表象。這才是通向真正智能系統的唯一道路。

      在圍棋和象棋這樣的游戲中,機器顯然已經遠遠超過人類了。原因之一是機器在博弈樹搜索上的速度極快,也具備人類根本不可能擁有的記憶容量。人類根本無法進行真正的廣度優先搜索。

      AlphaGo 出現之前,人們曾認為頂級圍棋選手距離“理想棋手”(他們稱之為“神”)也許只差兩三子。但事實證明并非如此——即便是世界最頂級的人類棋手,也需要讓八到九子才能與機器對抗。

      Allen Roush:我很榮幸能和你討論游戲 AI 的問題。我有兩個延伸問題。第一個,你提到人類在象棋等任務上其實非常不擅長。我了解到這常被稱為“莫拉維克悖論”:人類在漫長的進化過程中擅長身體運動和感知,但從未進化出下棋能力。你是否認同這個解釋?

      第二個問題與電子游戲有關。很多玩家——包括我自己——都感覺游戲里的敵人 AI 在過去 20 年幾乎沒有進步,最好的例子仍然是 2000 年代初的《光環 1》和《FEAR》。你認為實驗室里的 AI 研究,什么時候才能真正影響游戲體驗,而不是只體現在生成式 AI 上?

      Yann LeCun:我以前也是玩家,雖然不算沉迷,但我的家庭幾乎完全浸在這個圈子里——我有三個三十多歲的兒子,他們共同經營一家游戲設計工作室。所以我對這個行業并不陌生。

      你的觀察是對的。事實上,不只是游戲,動畫電影制作也是類似的情況。盡管物理模擬已經相當精確,但很多動畫工作室并不會使用最真實的物理模擬,因為他們更需要的是“可控性”,而不是絕對的物理準確性。

      游戲同樣是一種創作行為,創作者希望控制劇情走向、NPC 的行為方式,而不是讓一切完全由 AI 自由演化。目前的 AI 技術在“保持可控性”方面仍然存在挑戰,這也是游戲行業對深度 AI 應用保持謹慎的原因之一。

      至于你提到的莫拉維克悖論,它依然完全成立。這一觀點大約是在 1988 年提出的,其核心問題是:

      為什么我們認為高度“智能”的任務(比如下棋、做積分)可以輕松交給計算機,而那些我們完全不覺得是“智能”的能力——比如貓走路、避障、捕獵——卻極其難以讓機器掌握?

      即便到了今天,四十多年過去了,我們仍然無法讓機器人具備貓的靈活性、創造性和適應能力。問題不在于硬件,我們完全可以造出這樣的機器人,而在于我們無法讓它們“足夠聰明”。

      正因為如此,那些宣稱“一兩年內實現 AGI”的說法,在我看來是完全脫離現實的幻想。真實世界的復雜度,遠不是通過對世界進行 token 化、再喂給語言模型就能解決的。

      3 “通用智能”簡直是胡扯

      Ravid Shwartz-Ziv:那你對 AGI 的時間表怎么看?你是偏樂觀還是偏悲觀?在當前關于 AI 風險的討論中,你更接近哪一派?

      Yann LeCun:首先我要明確一點:“通用智能”這個概念本身就是站不住腳的。

      它本質上是以“人類智能”為參照定義的,但人類智能本身高度專用化。我們擅長在現實世界中行動、與他人互動,但在下棋等任務上卻表現糟糕;而很多動物在某些方面遠勝人類。

      我們之所以誤以為自己是“通用的”,只是因為我們只能理解自己能夠想象的問題。

      因此,與其討論“通用智能”,不如討論“人類水平智能”:機器是否會在所有人類擅長的領域達到或超過人類?答案是肯定的,而且在某些領域已經發生了——例如機器可以在上千種語言之間進行雙向翻譯,這是任何人類都無法做到的。

      但這個過程不會是一個突發事件,而是一個漸進的過程。

      未來幾年,我們可能在世界模型、規劃能力等方面取得關鍵性進展。如果一切順利、沒有遇到尚未意識到的根本性障礙,最樂觀的情況是:在 5 到 10 年內,我們或許能看到接近人類,或者至少接近“狗水平”的智能系統

      但這只是最樂觀的估計。歷史告訴我們,AI 發展中總會出現新的瓶頸,可能需要 20 年甚至更久才能突破。

      Ravid Shwartz-Ziv:那你認為,從現在到“狗水平智能”,是否比從“狗”到“人類”更難?

      Yann LeCun:恰恰相反,最難的部分是達到“狗水平”。

      一旦你達到這個階段,絕大多數核心要素就已經具備了。從靈長類到人類,真正新增的關鍵能力,可能主要是語言。而語言在大腦中只占據極小的區域,我們已經在這方面做得相當不錯。

      某種意義上,未來的語言模型可能扮演人腦中布羅卡區和韋尼克區的角色。而我們當前真正缺失的,是相當于“前額葉皮層”的能力——也就是世界模型、規劃與行動能力。

      Allen Roush:這就引出了一個繞不開的問題:安全。如果 AI 達到“狗水平”,它在嗅覺等感知能力上可能已經遠超人類,這只是潛在沖擊的冰山一角。再加上“超級說服”“AI 精神錯亂”等現象,你是否擔心 AI 會變得失控?

      Yann LeCun:我當然理解這些擔憂,而且我本人也親身經歷過相關事件。有一次在 NYU 校園,我遇到一名情緒嚴重不穩定的人,他攜帶危險物品,被警方帶走。還有高中生給我寫信,說他們被“AI 滅世論”嚇到,甚至不再上學。

      這些現象說明,恐懼本身也會造成真實傷害。但歷史告訴我們,任何強大的技術都會帶來利弊。

      以汽車為例,早期汽車極其危險,但通過安全帶、潰縮區、自動剎車系統等技術演進,如今已經大幅降低了死亡率。歐盟強制配備的自動緊急制動系統,已被證明能減少 40% 的正面碰撞事故。

      AI 也是如此。它既可能帶來風險,也已經在醫療影像等領域挽救了大量生命。

      4 當 AI 發展到某一階段,要暫停嗎?

      Allen Roush:你與 Hinton、Bengio 在 AI 未來問題上的立場有所不同。你認為會不會有一天,AI 發展到某個階段,必須暫停推進,轉而只關注安全?

      Yann LeCun:安全必須與發展同步進行,而不是先停下來等“絕對安全”

      我常用噴氣發動機作比喻:第一代噴氣發動機根本不安全、不可靠,但正是在不斷工程改進中,才達到了今天這種可以連續飛行 17 小時的可靠性。AI 也會走類似的路徑。我們會逐步構建具備規劃與行動能力的系統,同時在非常底層引入明確的安全約束。

      比如,家用機器人必須始終避開人類、不能傷害人;手持刀具時必須限制動作幅度。這些都可以通過低層規則明確約束。所謂“回形針最大化”的極端案例,在工程上其實非常容易避免。

      Ravid Shwartz-Ziv:有人認為,大語言模型可以通過微調來避免生成危險內容,但現實是,它們總是可以被“越獄”,總能找到某些提示詞繞過限制。無論我們禁止它們做什么,總會有漏洞。你怎么看?

      Yann LeCun:我同意你的判斷,這正是我反對繼續依賴 LLM 的原因。我們不應該再指望通過微調語言模型來解決安全問題,而應該轉向我之前提到的那類以目標驅動(objective-driven)為核心的 AI 架構

      在這種架構中,系統具備以下幾個關鍵能力:

      第一,它擁有世界模型,能夠預測自身行為可能帶來的后果;

      第二,它可以規劃一系列行動來完成任務;

      第三,也是最關鍵的,它必須受到一整套硬性約束的限制,確保無論采取什么行動、預測到什么世界狀態,都不會對人類造成危險,也不會產生負面副作用。

      這類系統在設計層面就是安全的。因為它的輸出不是靠“微調”或“內容過濾”,而是通過在滿足約束條件的前提下,優化目標函數得出的。換句話說,它在結構上就不具備“逃逸”的可能性,這是一種先天安全的設計,而不是事后修補。

      Allen Roush:目前在 LLM 領域,也有一些限制輸出空間的技術,比如只允許模型在一個非常有限的輸出集合中生成內容,這種方法在擴散模型中也有應用。你認為這些方法在現實中真的顯著提升了模型的可用性嗎?

      Yann LeCun:它們確實有一定幫助,但代價極其高昂,所以這種做法極其荒謬。這類方法的基本做法是:先讓模型生成大量候選輸出,再用一個過濾或排序系統進行打分,挑出“最不糟糕”“毒性最低”的那個結果。

      問題在于,這種方式本質上是暴力搜索計算成本高得離譜。除非你有某種真正意義上的目標函數或價值函數,能夠在生成過程中就把系統引導到“高質量、低風險”的輸出,否則這種做法永遠都會非常昂貴、低效,也不可規模化。

      5 “Alex Wang 不是科學家,他沒有接替我”

      Allen Roush:我們稍微換一個話題。很多觀眾也關心一些更偏“人和組織”的問題。比如,在 Meta 內部,Alex Wang 似乎正在接管你過去的角色,你怎么看 Meta 未來的 AI 方向?

      Yann LeCun:他并不是在“接替我”。Alex Wang 負責的是 Meta 所有 AI 相關的研發與產品整體運作,而不是科研本身。他并不是研究員或科學家,而是一個全面統籌的人

      在 Meta 的“超級智能實驗室”體系下,大致可以分為四個部分:第一是 FAIR,負責長期基礎研究;第二是 TBD Lab,主要做前沿模型,幾乎完全聚焦大語言模型;第三是 AI 基礎設施,包括軟件和硬件;第四是產品部門,把前沿模型做成真正可用的產品,比如聊天機器人,并集成到 WhatsApp 等應用中。Alex 統管這四個方向。

      我本人是 FAIR 的首席 AI 科學家,但我很快就會離開 Meta——大概再待三周左右。

      Ravid Shwartz-Ziv:FAIR 的定位是否也在發生變化?

      Yan LeCun:是的。FAIR 目前由我們在 NYU 的同事 Rob Fergus 領導。在 Joel Pineau 離開后,FAIR 被明顯推向更短期、更偏應用的研究方向,發表論文的重要性下降,更多是為 TBD Lab 的大模型工作提供支持。這也意味著 Meta 整體正在變得更“封閉”。

      有些研究團隊也被重新歸類,比如做 SAM(Segment Anything)的團隊,現在已經歸到產品部門,因為他們做的是更偏向對外、實用型的技術。

      6 關于“世界模型”創業公司的看法

      Allen Roush:你如何看待其他試圖構建世界模型的公司?比如 Physical Intelligence、Thinking Machines,或者 SSI?

      Yan LeCun:說實話,大多數我也不太清楚他們具體在做什么。SSI 已經成了一個行業笑話——幾乎沒人知道他們在干什么,包括他們自己的投資人。這只是傳言,我不確定真假。

      Physical Intelligence 的方向,我倒是了解一些。他們主要做的是幾何一致的視頻生成:場景具有持久的三維結構,你轉身再回來,物體不會憑空變化。這仍然是一種生成像素的思路,而我剛剛才花了很長時間解釋,為什么我認為“生成像素”本身是個錯誤方向。

      Allen Roush:有沒有你比較認可的世界模型實踐?

      Yan LeCun:有一家叫Wayve(WA-Y-V-E)的公司,總部在牛津,我是他們的顧問。他們在自動駕駛領域構建了一個世界模型:先學習一個表示空間,再在這個抽象空間中做時間預測。

      他們做對了一半:對的地方在于,預測應該發生在表示空間,而不是像素空間;問題在于,他們的表示空間仍然主要通過重建訓練得到,這一點我認為是錯誤的。

      盡管如此,他們的系統整體效果非常好,在這一領域已經走得相當靠前。

      此外,NVIDIA 和 Sandbox AQ 也在談類似方向。Sandbox AQ 的 CEO Jack Hidary 提出“大型定量模型”,而不是語言模型,本質上就是能夠處理連續、高維、噪聲數據的預測模型——這與我的主張高度一致。

      Google 也做了很多世界模型,但主要仍是生成式路徑。Danijar Hafner 的 Dreamer 系列模型其實走在一條正確道路上,只可惜他已經離開 Google 創業了。

      Ravid Shwartz-Ziv:你曾嚴厲批評硅谷過度聚焦大語言模型。這是否也是你選擇在巴黎啟動新公司的原因之一?你認為這種現象會改變嗎?

      Yan LeCun:我先澄清一點:我創辦的是一家全球性公司,只是其中一個辦公室在巴黎,在紐約等地也有布局。

      硅谷存在一個非常典型的現象:因為競爭極端激烈,所有公司都被迫做同一件事。如果你走一條不同的技術路線,就有“掉隊”的巨大風險。這種環境會催生一種技術單一化(monoculture)

      OpenAI、Meta、Google、Anthropic,幾乎所有公司都在做同樣的事情。

      結果就是:大家拼命在同一條戰壕里向前沖,卻很容易被來自“完全不同方向”的技術突破所顛覆。

      我所關注的世界模型與目標驅動架構,本質上是為了解決語言模型根本不擅長的問題:連續、高維、噪聲數據,比如視頻、物理世界感知。這些領域里,LLM 的嘗試幾乎都失敗了。

      在硅谷,有一種說法叫“你是否已經被 LLM 洗腦”。很多人堅信,只要不斷擴大模型規模、生成更多合成數據、加強 RL 微調,就一定能走向超級智能。我認為這是徹底錯誤的。

      你必須跳出這種文化。而事實上,在硅谷的大公司內部,也有不少人私下認同這一點——我現在正在把他們招過來。

      7 為什么 65 歲仍然創業?

      Ravid Shwartz-Ziv:你已經 65 歲,拿過圖靈獎、女王獎,完全可以退休。為什么現在還要創業?

      Yan LeCun:因為我有使命感。我一直認為,提升世界上的“智能總量”是一件內在正確的事情。智能是這個世界上最稀缺、最被需要的資源,這也是為什么人類投入如此多的成本去教育。

      無論是幫助人類更聰明,還是用機器來增強人類智能,本質上都是在服務同一個目標。當然,強大技術必然伴隨風險,但那是工程和治理問題,而不是不可逾越的根本障礙。

      我一生的研究、教學、公共傳播,幾乎都圍繞著同一件事:讓人類變得更聰明。而機器智能,本質上也是這個目標的一部分。

      Ravid Shwartz-Ziv:有沒有什么你一直沒來得及寫下的想法,或者職業上的遺憾?

      Yan LeCun:太多了。我整個職業生涯都在后悔一件事:沒有花足夠時間把自己的想法寫下來,結果經常被別人搶先。

      反向傳播就是一個例子。我其實很早就有類似思路,但沒有及時完整發表。不過我并不糾結。科學思想幾乎從來不是孤立產生的,從想法到論文、到理論、到應用、到產品,本身就是一個漫長而復雜的鏈條。

      “世界模型”這個概念也并不新。早在 1960 年代,控制論和航天工程就已經在使用世界模型來規劃火箭軌道。所謂系統辨識,更是 1970 年代的老概念。

      真正的難點,從來不在“最早提出”,而在于把一個想法真正變成可工作的系統

      https://www.youtube.com/watch?v=7u-DXVADyhc

      聲明:本文為 InfoQ 翻譯整理,未經許可禁止轉載。

      AI 重塑組織的浪潮已至,Agentic 企業時代正式開啟!當 AI 不再是單純的輔助工具,而是深度融入業務核心、驅動組織形態與運作邏輯全面革新的核心力量。

      把握行業變革關鍵節點,12 月 19 日 - 20 日,AICon 全球人工智能開發與應用大會(北京站) 即將重磅啟幕!本屆大會精準錨定行業前沿,聚焦大模型訓練與推理、AI Agent、研發新范式與組織革新,邀您共同深入探討:如何構建起可信賴、可規模化、可商業化的 Agentic 操作系統,讓 AI 真正成為企業降本增效、突破增長天花板的核心引擎。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      八路軍有位參謀長因升遷無望,帶著槍支憤然離去,主席得知后明確指示:他是有功之人,應該給他一條生路

      八路軍有位參謀長因升遷無望,帶著槍支憤然離去,主席得知后明確指示:他是有功之人,應該給他一條生路

      寄史言志
      2025-12-25 12:43:10
      阿凡達3!!!絕對的王者!!

      阿凡達3!!!絕對的王者!!

      仙味少女心
      2025-12-25 14:47:18
      如今“家喻戶曉”的明代畫家仇英,他在古代畫家中歷史地位如何?

      如今“家喻戶曉”的明代畫家仇英,他在古代畫家中歷史地位如何?

      老范談史
      2025-12-25 10:24:43
      狂掃1000噸黃金,美聯儲慌了,金價突破4500,中國底牌要藏不住了

      狂掃1000噸黃金,美聯儲慌了,金價突破4500,中國底牌要藏不住了

      趣文說娛
      2025-12-26 16:31:37
      《燕云》回應性感美女新服裝被指低俗:已經修復優化

      《燕云》回應性感美女新服裝被指低俗:已經修復優化

      游民星空
      2025-12-26 17:09:28
      孫東旭露面了,在老家吉林閑逛,又瘦又矮,川字紋明顯!挺落寞的

      孫東旭露面了,在老家吉林閑逛,又瘦又矮,川字紋明顯!挺落寞的

      樂悠悠娛樂
      2025-12-26 13:03:29
      伊森:烏度卡終于開始信任我了,我當然想打先發

      伊森:烏度卡終于開始信任我了,我當然想打先發

      懂球帝
      2025-12-26 15:28:10
      女兒探望再婚母親,卻看到49歲的母親懷孕,見到繼父后愣了

      女兒探望再婚母親,卻看到49歲的母親懷孕,見到繼父后愣了

      清茶淺談
      2025-04-20 17:09:36
      以色列已經告訴世界:日本若敢擁有核武器,美國并不會第一個翻臉

      以色列已經告訴世界:日本若敢擁有核武器,美國并不會第一個翻臉

      燦若銀爛
      2025-12-25 13:06:29
      167票當選!聯合國變天,新主席對華態度不一般?中方提出4個要求

      167票當選!聯合國變天,新主席對華態度不一般?中方提出4個要求

      花花娛界
      2025-12-25 20:42:42
      獲得中方承諾后,澤連斯基又拿到7420億,英媒:美國威脅西方

      獲得中方承諾后,澤連斯基又拿到7420億,英媒:美國威脅西方

      兵說
      2025-12-25 11:53:46
      女子獨自遠嫁江蘇,公婆卻不露面!主臥鎖門家里全是灰,網友震怒

      女子獨自遠嫁江蘇,公婆卻不露面!主臥鎖門家里全是灰,網友震怒

      千言娛樂記
      2025-12-24 20:32:50
      0034號骨灰盒藏了整整6年,上面寫著“王玉”,周總理看了一眼名單,手抖得連字都簽不成

      0034號骨灰盒藏了整整6年,上面寫著“王玉”,周總理看了一眼名單,手抖得連字都簽不成

      史海殘云
      2025-12-17 11:54:10
      中國態度逆轉,鐵路開建,中方換了打法,美國緊急喊停

      中國態度逆轉,鐵路開建,中方換了打法,美國緊急喊停

      吃貨的分享
      2025-12-26 14:23:25
      吃相太難看,香港巨輪遭美扣押,另一艘誓死不降,中國反制太高明

      吃相太難看,香港巨輪遭美扣押,另一艘誓死不降,中國反制太高明

      老黯談娛
      2025-12-26 07:04:50
      12月起開藥迎大變化!醫保局劃三條紅線,超量或需自費

      12月起開藥迎大變化!醫保局劃三條紅線,超量或需自費

      慧眼看世界哈哈
      2025-12-26 13:31:14
      錢再多也沒用!向太曝馬伊琍已再婚,原來當年文章過不了心里那關

      錢再多也沒用!向太曝馬伊琍已再婚,原來當年文章過不了心里那關

      一娛三分地
      2025-12-15 13:26:07
      55歲鐘麗緹中年發福太多!胖到180斤 胸大腚圓 滿身肥肉穿吊帶

      55歲鐘麗緹中年發福太多!胖到180斤 胸大腚圓 滿身肥肉穿吊帶

      廣西阿妹香香
      2025-12-20 15:58:58
      回望2025|黃金沸騰:水貝老板離場,海南現“千里淘金”

      回望2025|黃金沸騰:水貝老板離場,海南現“千里淘金”

      新京報
      2025-12-26 16:32:24
      中方感謝印度,關鍵時刻,印度果斷站隊中國,終止與臺島10年項目

      中方感謝印度,關鍵時刻,印度果斷站隊中國,終止與臺島10年項目

      科普100克克
      2025-12-26 15:58:56
      2025-12-26 17:51:00
      InfoQ incentive-icons
      InfoQ
      有內容的技術社區媒體
      11871文章數 51654關注度
      往期回顧 全部

      科技要聞

      收割3000億!拼多多"土辦法"熬死所有巨頭

      頭條要聞

      上海7旬爺叔在公園為80后兒子相親 堅持5年每周都來

      頭條要聞

      上海7旬爺叔在公園為80后兒子相親 堅持5年每周都來

      體育要聞

      開翻航母之后,他決定親手造一艘航母

      娛樂要聞

      朱孝天深夜道歉,只字未提五月天阿信

      財經要聞

      “國家隊”出手了,萬億資金規模!

      汽車要聞

      兩大CEO試駕 華為乾崑*啟境開啟首款獵裝轎跑路測

      態度原創

      時尚
      手機
      數碼
      教育
      軍事航空

      普通人如何“偷偷”變美?她的4個微習慣很好抄

      手機要聞

      realme真我手機12月升級計劃公布:新增元旦限定水印等

      數碼要聞

      飛貓推出M7 Pro隨身WiFi,99元

      教育要聞

      大動作!景山學校剛剛傳出新消息——

      軍事要聞

      烏最新20點俄烏和平草案遞交莫斯科 俄方拒絕

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 国产成人亚洲综合无码精品| 综合久久国产九一剧情麻豆| 无码高潮爽到爆的喷水视频app | 成人动漫综合网| 91中文字幕一区在线| 永久免费mv入口| 寻甸| 成人综合色图| 无线日本视频精品| 亚洲国产精品成人无码区| 色欲av伊人久久大香线蕉影院| 在线精品视频一区二区三区| 老司机性色福利精品视频| 久久精品国产77777蜜臀| 国产黄色在线| 天堂av在线免费观看| 欧美人与性动交α欧美精品| 无码专区男人本色| 激情国产一区二区三区四区| 99中文字幕精品国产| 大桥未久亚洲无av码在线| jizz网站| 欧美精品xxx| 在线观看国产午夜福利片| 日韩精品毛片无码一区到三区| 色噜噜一区二区三区| 手机无码人妻一区二区三区免费 | 成av免费大片黄在线观看| 在线免费看AV| 7777精品伊人久久久大香线蕉全新功能 | 乱码午夜-极品国产内射| 亚洲成人中文字幕| 亚欧女AV| 精品亚洲国产成人AV制服丝袜| 欧美牲交a欧美在线| 日本饥渴人妻欲求不满| 亚洲乱妇熟女爽到高潮的片| 狠狠躁夜夜躁人人爽天天不卡软件 | 久久www香蕉免费人成| 亚洲乳大丰满中文字幕| 免费国产一级 片内射老|