<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      SFT遠不如RL?永不過時的剃刀原則打開終身學習大模型訓練的大門

      0
      分享至



      機器之心報道

      編輯:冷貓

      我們已經進入了大模型時代,越來越多的應用依賴大模型的能力,可以說大模型已經成為智能化基礎設施的核心組成部分,支撐著語言,視覺分析,智能駕駛,機器人等各種下游應用。

      在大模型的實際使用中我們發現,大部分的模型還只是某個細分領域任務的大牛,離我們理想中的 AGI 仍然遙遙無期。

      準確的說,這些投入部署的大模型大多是「靜態」模型,對于其預訓練或微調時優化的系列任務表現良好,但是在動態學習,自我提升這部分能力是缺位的。

      如果我們希望實現更加通用的大模型,使其能像長期的智能助手一樣,隨時間不斷適應新的任務與需求,很多技術瓶頸亟待突破。而最大的挑戰之一就是「災難性遺忘」。

      相信大家對這個概念已經非常熟悉了,災難性遺忘指的是模型在學習新任務時,會丟掉之前學到的技能。擴大模型規模、增加預訓練數據確實能稍微緩解遺忘現象,但始終不能徹底解決。



      圖源:小紅書 @機器壞人(AI 版)

      針對災難性遺忘的問題,研究者們提出了各種各樣的改進方法,包括正則化、經驗回放、參數微調等等。

      但有沒有一種可能,我們對大模型遺忘的研究想的有些太復雜了,如無必要勿增實體的剃刀原則才是根治問題的最佳手段。

      幾天前,來自麻省理工學院(MIT)Improbable AI Lab 的研究者針對該問題發表了一篇研究論文,將奧卡姆的剃刀伸向了大模型后訓練,揭示了大模型遺忘現象的基本規律和訓練策略,目前已在 Alphaxiv 上熱度排名第一。



      • 論文標題:RL's Razor: Why Online Reinforcement Learning Forgets Less
      • 論文鏈接:https://www.arxiv.org/abs/2509.04259v1

      現代 AI 系統面臨一個根本性挑戰:在學習新任務時,它們常常災難性地遺忘先前獲得的知識。這種現象嚴重限制了基礎模型作為長期、持續學習代理的能力。

      這項研究集中在一個驚人的實證觀察上:

      研究者比較了兩種常見的后訓練方式:監督微調(SFT) 和 強化學習(RL)。結果很出乎意料:

      • 即便 SFT 和 RL 在新任務上表現一樣好,SFT 往往是通過 「犧牲舊知識」 來換取新任務的提升;
      • RL 卻能在學習新技能的同時,更多地保留原有能力。

      那么問題來了:為什么 RL 不容易遺忘?

      遺忘定律

      研究揭示了一個新的規律,稱為 「遺忘定律」:

      當模型 π 在新任務 τ 上進行微調時,遺忘程度可以通過 精確預測,即在新任務上評估的微調策略和基線策略之間的KL散度



      這條定律在實踐中非常有用,因為它可以在微調過程中進行測量甚至影響,而無需訪問舊任務數據。盡管其機制仍有待充分理解,但這條定律在不同模型和領域之間的一致性表明它反映了遺忘的一個基本屬性。

      也就是說,微調后模型與原始模型在新任務分布上的差異越大,遺忘就越嚴重。



      偏向 KL - 最小解減少了遺忘。左圖顯示,在能夠解決新任務的策略中,RL 收斂到 KL 散度上最接近基模型的那些策略。右圖顯示,在相同的新任務性能下,這種 KL 偏向使得 RL 相比 SFT 能更好地保留先驗任務的知識。

      研究者進行了廣泛的實驗,以確定什么因素預示著災難性遺忘。他們測試了各種假設,包括權重級變化、表示偏移和分布差異。通過對多個領域和模型架構進行系統性消融研究,他們發現微調策略和基礎策略之間的前向 KL 散度是遺忘的一個驚人一致的預測指標

      前向 KL 散度定義為:



      其中代表微調策略,代表原始模型。





      這種關系適用于不同的訓練算法和超參數,形成了作者所稱的「經驗性遺忘定律」。在使用簡化 ParityMNIST 任務的對照實驗中,這種關系實現了 0.96 的 R2,證明了其預測能力。



      該圖顯示,在帕累托前沿上,RL 始終優于 SFT,在語言模型(數學、科學問答、工具使用)和機器人任務中,RL 在新任務性能和先驗知識保留之間實現了更好的權衡。

      RL 的剃刀:KL 最小路徑原理

      更有意思的是,RL 的優勢正來自于它的 「KL 偏好」。

      • 在新任務上,存在許多能達到高表現的解。
      • RL 天然偏向選擇那些 離原始模型更近(KL 更?。?的解;
      • 而 SFT 則可能收斂到距離原始模型很遠的解,從而帶來嚴重遺忘。

      核心理論貢獻是「RL 的剃刀」—— 即在解決新任務的所有方法中,RL 偏好與原始模型在 KL 散度上最接近的解決方案。這種偏向 KL 最小解的偏好解釋了為什么 RL 比 SFT 遺忘得少。

      為了驗證 KL 假設,研究者構造了一個理想的 「oracle SFT」 分布:它在保證新任務完美準確的同時,也做到 KL 最小化。結果顯示,在這個分布上訓練,遺忘比 RL 還少。這說明 RL 的優勢并不是來自某種「本質上的不同」,而是源于它 隱式地執行了 KL 最小化。只要訓練過程偏向 KL 最小解,模型遺忘就會隨之減少。



      左圖通過使用一個「Oracle SFT」分布來證明這一原理,該分布在實現完美新任務準確性的同時,解析地最小化了 KL 散度。使用這種 Oracle 分布進行訓練產生的遺忘比標準 RL 更少,證實了 KL 最小化是關鍵機制。中圖展示了 KL 散度與遺忘之間的強關聯(R2 = 0.961),而右圖則說明了與 SFT 相比,RL 如何通過較小的 KL 偏移實現高準確性。

      機制分析:在線策略學習與離線策略學習

      為了理解 RL 何種機制驅動了其 KL 保守行為,研究人員比較了四種不同的訓練范式:

      分析揭示,數據收集的在線策略性質是關鍵因素,而不是負面示例的使用。在線策略方法(GRPO 和 1-0 Reinforce)保持較小的 KL 偏移和更好的先驗任務保留,而離線方法(SFT 和 SimPO)無論是否使用負面示例,其行為都相似。

      理論基礎

      作者通過信息幾何的視角,為強化學習的 KL - 最小收斂提供了理論基礎。他們表明,帶有二元獎勵的策略梯度方法可以被理解為在概率空間中執行交替的信息(I-)投影和期望(M-)投影:



      這種迭代過程收斂到可表示策略類中的 KL - 最小最優策略,為「RL 的剃刀」提供了形式化解釋。I - 投影步驟在滿足獎勵約束的同時最小化 KL 散度,而 M - 投影步驟則朝著更高獎勵的動作更新。

      更多數據

      這項研究表明,這一原理超越了簡單的實驗環境。使用中心核對齊(Centered Kernel Alignment)進行的表示保留分析表明,與 SFT 相比,RL 保持與基礎模型更高的相似性:



      此外,對更大模型(70 億和 140 億參數)的實驗證實,僅僅擴大規模并不能消除 SFT 中固有的遺忘權衡:



      總結

      本篇論文的核心貢獻有三點:

      1. 實驗證明:在相同性能下,RL 比 SFT 更不容易遺忘

      2. 提出遺忘定律:新任務上的KL 散度是預測遺忘的關鍵指標。

      3. 理論與實證結合,解釋了RL 的優勢來自其 on-policy 特性

      這項研究為后訓練提供了新的視角:為了實現無遺忘的持續適應,算法應該明確地旨在最小化與基模型之間的 KL 散度,確立了 KL 散度作為持續學習系統的基本設計原則。

      這一原則為設計未來的訓練方法打開了大門,這些方法將 RL 保留先驗知識的能力與 SFT 的效率相結合,使基礎模型能夠真正地「終身學習」。

      對于使用基礎模型的實踐者來說,這項研究提供了明確的指導:當持續適應很重要時,在線策略 RL 方法比標準微調方法具有顯著優勢。KL 散度指標還為模型適應期間的遺忘監測和預測提供了一個實用工具。

      這項工作有助于我們理解為什么像 RLHF 中的 KL 正則化這樣的常見實踐是有效的,將經驗觀察提升到理論基礎。這種原則性理解為開發真正長壽、能夠持續學習而不會災難性遺忘的 AI 代理開辟了新方向。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      腎病新突破!研究證實:補足3類營養,腎臟很難惡化

      腎病新突破!研究證實:補足3類營養,腎臟很難惡化

      岐黃傳人孫大夫
      2026-02-01 06:55:03
      突發!哈梅內伊交代后事,伊朗權力格局一夜生變

      突發!哈梅內伊交代后事,伊朗權力格局一夜生變

      老馬拉車莫少裝
      2026-02-22 22:45:14
      血虧!曼聯 4 年前 900 萬賤賣的天才,如今實力遠超卡塞米羅

      血虧!曼聯 4 年前 900 萬賤賣的天才,如今實力遠超卡塞米羅

      瀾歸序
      2026-02-22 02:12:47
      新年痛失摯愛!TVB人氣女星淚崩公布死訊,結婚13年堅持丁克

      新年痛失摯愛!TVB人氣女星淚崩公布死訊,結婚13年堅持丁克

      情感大頭說說
      2026-02-22 03:23:00
      谷愛凌重傷后平衡感下降易摔倒,用意志和完美技術擊敗英國騰空王

      谷愛凌重傷后平衡感下降易摔倒,用意志和完美技術擊敗英國騰空王

      楊華評論
      2026-02-22 20:03:42
      美媒:網飛董事會成員警告“向特朗普屈膝”企業將自食其果,特朗普怒了

      美媒:網飛董事會成員警告“向特朗普屈膝”企業將自食其果,特朗普怒了

      環球網資訊
      2026-02-22 16:17:06
      麥克托米內回應重返曼聯傳聞,拉爵分成愿望破滅!小麥再獲一殊榮

      麥克托米內回應重返曼聯傳聞,拉爵分成愿望破滅!小麥再獲一殊榮

      羅米的曼聯博客
      2026-02-22 09:09:49
      速查!北京這4個證件過期麻煩大:高鐵坐不了,車牌搖不到!

      速查!北京這4個證件過期麻煩大:高鐵坐不了,車牌搖不到!

      據說說娛樂
      2026-02-22 23:10:33
      炸鍋!姆巴佩逼宮弗洛倫蒂諾:要我留,先送維尼修斯走

      炸鍋!姆巴佩逼宮弗洛倫蒂諾:要我留,先送維尼修斯走

      瀾歸序
      2026-02-22 04:42:37
      平頂山15歲女孩被打后續!家屬曝光更多細節,比唐山打人案更惡劣

      平頂山15歲女孩被打后續!家屬曝光更多細節,比唐山打人案更惡劣

      觀察鑒娛
      2026-02-22 16:04:08
      反轉!媽祖巡游所換為女童,從著裝能看出,被換女孩疑炒作刪視頻

      反轉!媽祖巡游所換為女童,從著裝能看出,被換女孩疑炒作刪視頻

      古希臘掌管松餅的神
      2026-02-22 22:21:04
      東北人,為啥都愛打扮和穿名牌?

      東北人,為啥都愛打扮和穿名牌?

      冰咖
      2026-02-19 15:17:03
      加價神車換代?2026款LM賣66萬,這配置你會買單嗎?

      加價神車換代?2026款LM賣66萬,這配置你會買單嗎?

      西莫的藝術宮殿
      2026-02-22 23:12:43
      消息稱三星半導體設定50%營業利潤率目標,聚焦高利潤產品

      消息稱三星半導體設定50%營業利潤率目標,聚焦高利潤產品

      IT之家
      2026-02-22 21:09:13
      曾凡博,為何會落選中國男籃?CBA名記進行了解答!

      曾凡博,為何會落選中國男籃?CBA名記進行了解答!

      體育哲人
      2026-02-22 20:11:49
      斯諾克球員錦標賽:趙心童對陣希金斯爭冠,直播進行中

      斯諾克球員錦標賽:趙心童對陣希金斯爭冠,直播進行中

      風風拒絕焦慮
      2026-02-22 21:45:33
      林孝埈再次致歉!孫龍自責淚崩+哽咽:做了努力但是,沒有辦法

      林孝埈再次致歉!孫龍自責淚崩+哽咽:做了努力但是,沒有辦法

      風過鄉
      2026-02-22 11:52:45
      女孩當小姐,一晚要提供4到5次上門服務,2015年被親人點到不赴約

      女孩當小姐,一晚要提供4到5次上門服務,2015年被親人點到不赴約

      漢史趣聞
      2025-11-08 09:27:32
      唐山“釣帝”安國勇去世,享年75歲,死因曝光,因曬成老抽色走紅

      唐山“釣帝”安國勇去世,享年75歲,死因曝光,因曬成老抽色走紅

      解說阿洎
      2026-02-22 00:22:54
      別再花冤枉錢!iPhone自帶多款高效應用,全部免費更實用

      別再花冤枉錢!iPhone自帶多款高效應用,全部免費更實用

      小柱解說游戲
      2026-02-20 09:16:19
      2026-02-23 01:03:00
      機器之心Pro incentive-icons
      機器之心Pro
      專業的人工智能媒體
      12326文章數 142569關注度
      往期回顧 全部

      科技要聞

      馬斯克:星艦每年將發射超過10000顆衛星

      頭條要聞

      男子持霰彈槍燃燒罐闖特朗普私宅被擊斃 細節披露

      頭條要聞

      男子持霰彈槍燃燒罐闖特朗普私宅被擊斃 細節披露

      體育要聞

      谷愛凌:6次參賽6次奪牌 我對自己非常自豪

      娛樂要聞

      谷愛凌:真正的強大 敢接納生命的節奏

      財經要聞

      特朗普新加征關稅稅率從10%提升至15%

      汽車要聞

      續航1810km!smart精靈#6 EHD超級電混2026年上市

      態度原創

      本地
      家居
      數碼
      公開課
      軍事航空

      本地新聞

      春花齊放2026:《駿馬奔騰迎新歲》

      家居要聞

      本真棲居 愛暖伴流年

      數碼要聞

      古爾曼:蘋果3月2 - 4日發布“至少五款產品”

      公開課

      李玫瑾:為什么性格比能力更重要?

      軍事要聞

      約旦基地美軍戰機驟增 包括F-35隱形戰斗機

      無障礙瀏覽 進入關懷版