<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      不用一個字,MIT團隊讓細胞自動機教會了大模型推理

      0
      分享至

      1970 年,數學家約翰·康威發明了“生命游戲”(Game of Life)。在一塊無限延伸的棋盤上,每個方格非生即死,遵循幾條極其簡單的規則:活細胞如果鄰居太少就會孤獨而死,太多則因擁擠而亡;死細胞恰好有三個活鄰居就會復活。

      沒有人下棋,沒有人操控,但這些簡單規則跑起來之后,屏幕上會涌現出滑翔機、脈沖槍、甚至可以模擬圖靈機的復雜結構。半個多世紀以來,這個實驗一直被視為復雜性科學的經典演示,展示簡單規則如何生成無窮復雜的行為。


      圖丨康威的“生命游戲”(來源:WikiPedia)

      沒人想過這些東西能教 AI 說話。直到現在。

      MIT Improbable AI 實驗室 Pulkit Agrawal 團隊在今年 3 月發表了一篇論文,提出了一個聽起來相當不合常理的想法:用類似“生命游戲”的細胞自動機生成的數據,去預訓練大型語言模型。這些數據不包含任何文字、任何語義,只是一個 12×12 網格上像素不斷演化的軌跡。


      圖丨Pulkit Agrawal(來源:MIT CSAIL)

      但實驗結果顯示,在這些純粹的“動態圖案”上訓練過的模型,在隨后的自然語言學習中表現得更好,困惑度(perplexity)降低了最多 6%,收斂速度加快了最多 1.6 倍。更讓人意外的是,僅用 1.64 億個細胞自動機 token 做預訓練,效果竟然超過了用 16 億個真實英語文本(來自 Common Crawl 數據集 C4)做同樣的預訓練。

      這項工作的核心思路可以用一句話概括:語言模型真正需要學習的,可能不是語言本身,而是語言背后的計算結構。


      圖丨NCA 預預訓練到語言預訓練的概覽(來源:arXiv)

      研究團隊使用的是“神經細胞自動機”(Neural Cellular Automata, NCA),這是經典細胞自動機的一種推廣。傳統的細胞自動機(比如康威的生命游戲)使用固定的規則,而 NCA 把規則替換成了一個小型神經網絡,具體來說是一個 3×3 卷積加上一層 MLP。

      每次生成訓練數據時,研究者隨機初始化這個網絡的權重,等于隨機抽取一條全新的動力學規則,然后讓它在網格上跑出一段時空演化軌跡。這些軌跡被切割成 2×2 的圖像塊,映射為 token 序列,再用標準的下一個 token 預測任務來訓練 transformer。

      換句話說,模型拿到的每一條序列,都來自一個它從未見過的規則。要預測下一個 token,它必須在上下文中推斷出這條隱藏規則,然后應用它。這和語言模型在真實文本上做的事情存在某種深層對應。

      斯坦福大學馬騰宇與 Percy Liang 團隊在 2022 年的工作中就曾論證,下一個 token 預測本質上是一種隱式的貝葉斯推斷:模型從已有的文本中推斷出潛在的“生成概念”,再據此預測接下來會出現什么。NCA 訓練把這個過程提純了。自然語言中混雜著語義快捷方式和共現先驗,模型可以“投機取巧”;而 NCA 數據中沒有任何語義可以依賴,每一個 token 都在迫使模型做純粹的規則推斷。

      這套方法被稱為“pre-pre-training”,即在正式的語言預訓練之前,先用合成數據做一輪“預預訓練”。

      訓練流程分三步走:先在 NCA 數據上訓練 transformer 的非嵌入層權重,再在自然語言語料(網頁文本、代碼或數學文本)上做標準預訓練,最后是針對具體任務的微調。研究者測試了三個下游語料庫,分別是 OpenWebText(網頁文本,約 90 億 token)、OpenWebMath(數學文本,約 40 億 token)和 CodeParrot(代碼,約 130 億 token),在所有三個領域上都觀察到了持續的改善。


      (來源:arXiv)

      在推理基準測試上,收益同樣可見。GSM8K 數學推理測試中,NCA 預訓練將 pass@1 從 3.8% 提升到 4.4%;HumanEval 代碼生成測試中,pass@1 從 6.8% 提升到 7.5%;BigBench-Lite 綜合推理測試中,pass@4 從 25.9% 躍升至 36.5%。

      絕對數字不算大,這些畢竟是 16 億參數的模型,而非千億級的商用系統,但對照實驗的一致性指向了一個清晰的信號:從非語言數據中習得的某些東西,確實在幫助模型處理語言任務。

      那么,到底是什么被轉移了?研究者做了一個拆解實驗:在 NCA 預訓練完成后,選擇性地重新初始化模型的不同組件(注意力層、MLP 層、LayerNorm 層),然后觀察下游表現的變化。結果非常明確:重新初始化注意力權重造成的性能損失最大,遠超其他組件。這意味著注意力層承載了最多的可遷移結構。

      MLP 層的效果則因領域而異:在 OpenWebText 上,保留 NCA 階段的 MLP 權重反而會干擾語言學習;但在 CodeParrot 上,影響可以忽略不計。

      這一發現和最近 Jelassi 等人(2025 年)對混合專家(MoE)架構的分析形成了一定程度的呼應,那項工作表明擴大 MLP 參數主要增強的是記憶能力而非推理能力。兩相對照,一幅功能分工的圖景浮現出來:注意力層負責學習通用的依賴追蹤和上下文推斷機制,MLP 層則傾向于存儲特定領域的模式和統計規律。正因如此,注意力層從 NCA 到語言的遷移是“萬金油”式的,而 MLP 的遷移效果取決于源域和目標域之間的匹配程度。

      研究中另一個值得關注的發現有關于復雜性匹配。團隊使用 gzip 壓縮率作為 NCA 軌跡復雜性的度量,壓縮率低意味著數據更有規律、更可預測,壓縮率高則意味著更豐富的時空結構。他們把 NCA 數據按壓縮率分成幾個區間(20-30%、30-40%、40-50%、50% 以上),分別測試各區間對不同下游領域的遷移效果。

      結果表明,網頁文本和數學文本從高復雜度 NCA(50%+ 壓縮率)中受益最大,而代碼領域的最優區間在中等復雜度(30-40%)。有意思的是,這恰好與目標語料自身的復雜度特征對齊,OpenWebText 和 OpenWebMath 的 gzip 壓縮率在 60-70%,CodeParrot 則只有 32%。

      這意味著,合成數據不是“越多越好”或“越復雜越好”,而是需要與目標領域的計算特征相匹配。研究者稱之為“domain-targeted data design”,一種自然語言訓練中不存在的調控杠桿。你無法輕易改變英語的統計特性,但你可以調整 NCA 的規則空間、字母表大小、復雜度分布,讓它精確匹配你想要訓練的能力。

      這項工作的理論背景可以追溯到幾條學術脈絡。一條是 MIT 同校 Phillip Isola 團隊在 2024 年提出的“柏拉圖表征假說”(Platonic Representation Hypothesis),核心觀點是不同模態、不同架構的 AI 模型,隨著規模增大,內部表征正在趨同,仿佛都在逼近對現實世界的某種共同的統計模型。如果這個假說成立,那么從非語言數據中能學到與語言相通的表征,就不那么令人驚訝了。

      另一條脈絡來自 Finzi 等人(2026 年)提出的“epiplexity”概念,它指出對于計算能力有限的觀察者而言,簡單的確定性過程也能生成需要學習才能把握的結構信息。經典信息論認為確定性變換不能增加信息量,但那假設的是全知全能的觀察者;對于一個有限容量的 transformer 來說,生命游戲中涌現的滑翔機和碰撞圖案,確實包含了它必須“理解”才能預測的東西。

      關于“為什么 1.6 億 token 的自動機數據能勝過 16 億 token 的英語”,研究者給出的解釋是:在遠低于計算最優規模的 token 預算下(Chinchilla 定律建議 16 億參數模型需要約 320 億 token),自然語言訓練主要在學習淺層的局部模式,比如詞匯搭配、句法片段這些“表面功夫”。

      而 NCA 數據由于每條序列都對應一個獨特的動力學規則,多樣性極高,冗余性極低,每個 token 都在訓練模型做深層的規則推斷。加之 Abbas 等人(2023 年)的研究已經表明大規模自然語言數據集內部存在大量語義冗余,NCA 在 token 效率上的優勢就變得可以理解了。

      不過,目前這個實驗的規模還限于 16 億參數,距離工業級的千億參數模型還有數量級的差距。NCA 預訓練的增益隨模型規模增大而遞減,400M 模型改善了 8.6%,1.6B 模型改善了 5.7%,這個趨勢在更大規模上是否會完全消失,目前還不清楚。

      此外,對于較大字母表(n=10, 15)的 NCA,收益在一定 token 預算后出現飽和甚至下降,說明簡單地“生成更多 NCA 數據”并不是萬能解法。如何從理論上指導合成數據的生成,使其精確匹配目標領域的計算特征,仍然是一個開放的研究問題。

      但研究者們的期望不止于此。論文的結尾寫道,他們的最終愿景是完全用干凈的合成數據做預訓練,只在最后階段用少量經過精心篩選的自然語言來獲取語義。當前的“預預訓練”框架是這個范式的早期原型。

      參考資料:

      1.https://arxiv.org/pdf/2603.10055

      運營/排版:何晨龍

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      傷得很深!男子打賞女主播近300萬,想結婚時才知對方女兒都20歲了:我只顧為愛沖鋒,結果她全是假話

      傷得很深!男子打賞女主播近300萬,想結婚時才知對方女兒都20歲了:我只顧為愛沖鋒,結果她全是假話

      極目新聞
      2026-04-10 15:54:54
      鄭麗文的婚姻:女主外男主內,不生育孩子,事業理想置于家庭之上

      鄭麗文的婚姻:女主外男主內,不生育孩子,事業理想置于家庭之上

      芳芳歷史燴
      2026-04-08 16:28:15
      《妻子浪漫旅行》最尷尬的夫妻,話少還裝甜蜜,沒李純馬頔自然

      《妻子浪漫旅行》最尷尬的夫妻,話少還裝甜蜜,沒李純馬頔自然

      興史興談
      2026-04-11 10:05:11
      爆料者:壓根不是沖賈淺淺,查賈平凹時意外匹配到八字直指惡劣度

      爆料者:壓根不是沖賈淺淺,查賈平凹時意外匹配到八字直指惡劣度

      觀察鑒娛
      2026-04-11 11:28:56
      富婆陳麗華手握470億,在世時生活費曝光,估計和你想得不一樣

      富婆陳麗華手握470億,在世時生活費曝光,估計和你想得不一樣

      凡知
      2026-04-09 13:17:07
      我在國安退休后在村口下棋,年輕人觀棋時,他的手勢竟是特工暗號

      我在國安退休后在村口下棋,年輕人觀棋時,他的手勢竟是特工暗號

      千秋文化
      2026-03-03 20:17:48
      華南某設計院因斷崖式降薪引發“內斗”!

      華南某設計院因斷崖式降薪引發“內斗”!

      黯泉
      2026-04-11 19:57:26
      蘇州小伙娶小7歲俄羅斯美女,洋媳婦熱衷生娃,說至少要生4個

      蘇州小伙娶小7歲俄羅斯美女,洋媳婦熱衷生娃,說至少要生4個

      不似少年游
      2026-04-11 19:41:13
      資訊很有料|美伊數十年來最高級別直接會談 歷史性接觸陷進霍爾木茲海峽漩渦

      資訊很有料|美伊數十年來最高級別直接會談 歷史性接觸陷進霍爾木茲海峽漩渦

      國際在線
      2026-04-12 07:59:37
      一覺醒來,中國斯諾克4勝5負!高陽3-6到10-8,攜手周躍龍沖正賽

      一覺醒來,中國斯諾克4勝5負!高陽3-6到10-8,攜手周躍龍沖正賽

      劉姚堯的文字城堡
      2026-04-12 07:20:32
      難以置信!張雪峰離世后,峰學蔚來員工從10點變為七八點主動到崗

      難以置信!張雪峰離世后,峰學蔚來員工從10點變為七八點主動到崗

      火山詩話
      2026-04-11 19:37:49
      隨著申花1-0戰勝海港,泰山1-0,中超最新積分:榜首領先墊底20分

      隨著申花1-0戰勝海港,泰山1-0,中超最新積分:榜首領先墊底20分

      球場沒跑道
      2026-04-11 21:36:16
      4月11日俄烏最新:俄羅斯的關鍵條件

      4月11日俄烏最新:俄羅斯的關鍵條件

      西樓飲月
      2026-04-11 21:42:50
      續航100公里僅跑30公里 充電31秒電量猛漲10% 東莞網約車司機:深藍SL03虛到不敢接單

      續航100公里僅跑30公里 充電31秒電量猛漲10% 東莞網約車司機:深藍SL03虛到不敢接單

      信網
      2026-04-11 17:05:04
      只要和平不要統一?鄭麗文明確表態,國民黨三人罕見支持,不簡單

      只要和平不要統一?鄭麗文明確表態,國民黨三人罕見支持,不簡單

      起喜電影
      2026-04-12 00:07:31
      古代嬪妃被翻牌,次日往往站不穩,嬤嬤:哼,絕不是你想的那樣

      古代嬪妃被翻牌,次日往往站不穩,嬤嬤:哼,絕不是你想的那樣

      棠棣分享
      2026-03-21 00:51:06
      比郭臺銘還囂張,公然叫囂芯片'去中國化',如今卻上門討要訂單

      比郭臺銘還囂張,公然叫囂芯片'去中國化',如今卻上門討要訂單

      星星會墜落
      2026-04-11 13:25:46
      以軍突然發動襲擊!美軍“王牌”空降師、布什號航母等將抵達中東,特朗普強硬發聲!伊朗:若美方“以色列優先”,談判將無果而終

      以軍突然發動襲擊!美軍“王牌”空降師、布什號航母等將抵達中東,特朗普強硬發聲!伊朗:若美方“以色列優先”,談判將無果而終

      每日經濟新聞
      2026-04-11 19:55:10
      30分鐘直撲東北!美國調48架F-35兵臨城下,解放軍:敢動就全殲!

      30分鐘直撲東北!美國調48架F-35兵臨城下,解放軍:敢動就全殲!

      論事的老樞
      2026-04-11 20:37:25
      六年六場官司:許敏又輸了 郭威送養父保溫杯 親媽說兒子不屬于我

      六年六場官司:許敏又輸了 郭威送養父保溫杯 親媽說兒子不屬于我

      離離言幾許
      2026-04-11 17:04:01
      2026-04-12 10:32:49
      DeepTech深科技 incentive-icons
      DeepTech深科技
      麻省理工科技評論獨家合作
      16567文章數 514864關注度
      往期回顧 全部

      科技要聞

      理想稱遭惡意拉踩,東風日產:尊重同行

      頭條要聞

      牛彈琴:談判驚心動魄 美軍艦強闖霍爾木茲碰一鼻子灰

      頭條要聞

      牛彈琴:談判驚心動魄 美軍艦強闖霍爾木茲碰一鼻子灰

      體育要聞

      換帥之后,他們從降級區沖到升級區

      娛樂要聞

      鄭鈞回應兒子走路:會監督他挺直腰板

      財經要聞

      三輪磋商談至深夜 美伊談判三大議題仍待解

      汽車要聞

      煥新極氪007/007GT上市 限時19.39萬起

      態度原創

      教育
      藝術
      房產
      時尚
      軍事航空

      教育要聞

      并不是因為差了一分才淘汰你,而是為了淘汰你,才讓你差一分

      藝術要聞

      鄭麗文缺席丈夫引爭議!洪秀柱書法爆紅,傳統與現代的碰撞!

      房產要聞

      土地供應突然暴跌!2026海口樓市,格局大變!

      春季穿衣別死氣沉沉,看看這27套日常穿搭,活力時尚又減齡

      軍事要聞

      伊朗議長帶四名遇難兒童照片赴美伊談判

      無障礙瀏覽 進入關懷版