<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      小模型讀書大模型思考:上海AI Lab提出新知識推理解耦方法DRIFT

      0
      分享至



      本文主要完成單位為上海人工智能實驗室,主要作者謝文軒、譚鑫、陸超超、胡俠等,通訊作者為實驗室青年研究員汪旭鴻。

      當(dāng)長上下文成為負(fù)擔(dān):我們是否真的需要「把一切都塞進(jìn)推理模型」?

      當(dāng)前,隨著大家對大模型推理能力要求的提升,輸入上下文也在不斷變長,1M tokens 及以上的上下文窗口正逐漸成為現(xiàn)實,但「讀得更長」一定會帶來推理提升嗎?

      在現(xiàn)實應(yīng)用中,情況往往并不理想。當(dāng)推理模型直接處理超長原始文本時,瓶頸往往不再來自「不會推理」,而是來自讀不完、讀不動、讀不準(zhǔn):

      • 推理模型需要處理大量與任務(wù)無關(guān)的冗余信息;
      • 計算成本與延遲隨 token 數(shù)快速上升;
      • 關(guān)鍵信息容易被淹沒在長文本中;
      • 原始長文本中可能藏匿惡意內(nèi)容,增加模型安全風(fēng)險。

      這也引出了一個更本質(zhì)的問題:知識獲取(reading)與邏輯推理(reasoning),是否真的必須由同一個模型完成?

      復(fù)雜推理或許需要大模型,但從海量信息中獲取知識未必如此。

      為解決這一問題,來自上海人工智能實驗室與復(fù)旦大學(xué)的研究團(tuán)隊提出了 DRIFT:一種將知識獲取推理明確解耦的長上下文推理框架。

      DRIFT 采用雙模型架構(gòu):輕量知識模型負(fù)責(zé)讀取超長文檔,并將與當(dāng)前任務(wù)強(qiáng)相關(guān)的關(guān)鍵信息壓縮成高密度隱空間表示;推理模型直接利用這些表示進(jìn)行推理,無需處理龐雜原文。

      實驗結(jié)果表明:DRIFT 顯著提升推理效率,并在高壓縮比設(shè)置下仍保持甚至提升任務(wù)性能,展示了 reading–reasoning 解耦的實際價值。

      更有意思的是,即使沒有任何安全訓(xùn)練,由于推理模型不再直接接觸原始文本,該結(jié)構(gòu)在多種安全基準(zhǔn)上表現(xiàn)出更強(qiáng)的魯棒性。



      • 論文鏈接:https://arxiv.org/abs/2602.10021
      • 開源主頁:https://github.com/Lancelot-Xie/DRIFT

      現(xiàn)有方法:壓縮、檢索與記憶,問題出在「誰來讀」「怎么讀」

      為應(yīng)對超長上下文帶來的計算和推理壓力,現(xiàn)有工作從三個方向入手:壓縮輸入、引入檢索,或參數(shù)化存儲知識。

      壓縮的方法有兩類,一類方法通過硬壓縮直接刪除「低重要性」token ,但依賴局部、靜態(tài)的重要性估計,容易誤刪關(guān)鍵信息;另一類工作采用軟壓縮,將文本映射為 latent 表示,但本質(zhì)仍是靜態(tài)壓縮,壓縮結(jié)果與任務(wù)無關(guān),容易保留冗余信息而忽視有用信息。

      此外,一些方法依賴 RAG 從外部語料中檢索相關(guān)內(nèi)容,但整體效果受限于檢索器性能,對檢索策略較為敏感。也有工作通過參數(shù)化記憶模塊存儲知識,推理效率較高,但通常依賴預(yù)訓(xùn)練,難以支持即時注入的超長新知識。

      此外,DeepSeek 的 Engram 通過條件化參數(shù)記憶,將可復(fù)用的知識模式從 Transformer 主干中分離出來,在架構(gòu)層面實現(xiàn)了知識存儲與推理計算的解耦,從而提升效率與性能。不過,Engram 的記憶主要面向靜態(tài)長期知識,更適合對已知信息的高效調(diào)用;對于即時注入的新知識,其適配性仍然有限。

      本文核心貢獻(xiàn):

      • 提出 reading–reasoning 解耦的結(jié)構(gòu)性視角:將知識獲取與邏輯推理顯式分離,打破推理模型必須直接處理原始上下文的傳統(tǒng)范式;
      • 重構(gòu)知識輸入模態(tài):由小模型從超長文檔中抽取與任務(wù)相關(guān)的高密度知識表示,不再以冗余的原始文本作為推理模型輸入;
      • 構(gòu)建并驗證高效的雙模型框架:在多個長上下文推理基準(zhǔn)上表明,該架構(gòu)在顯著壓縮上下文規(guī)模的同時,仍能保持甚至提升復(fù)雜推理性能,并大幅降低推理延遲。

      DRIFT 的核心:將 reading 與 reasoning 明確解耦

      DRIFT 的核心思想并不是「如何壓得更狠」,而是重新定義知識進(jìn)入推理模型的方式:推理模型不再直接處理冗長的自然語言文本,而是接收一種由小模型從原文中提煉出的、為推理而設(shè)計的高密度知識表示。這種表示可以被視為獨立于文本形式的「知識輸入模態(tài)」。

      基于這一視角,DRIFT 關(guān)注的不是改進(jìn)文本處理流程,而是回答一個更根本的問題:讀取知識與執(zhí)行推理,是否本就應(yīng)由不同模塊承擔(dān)?

      在 DRIFT 中,小模型負(fù)責(zé)「讀文檔」并抽取與當(dāng)前問題相關(guān)的關(guān)鍵信息,將其轉(zhuǎn)化為緊湊的內(nèi)部知識表示;推理模型則直接以這一模態(tài)作為輸入,而無需再重新閱讀和解析原始文本。

      基于這種思想,DRIFT 的架構(gòu)如圖所示:



      DRIFT 整體框架圖

      Knowledge Model(小模型)

      • 處理超長文檔輸入;
      • 并行讀取文本塊并提取 query-relevant 信息,壓縮為隱空間知識表示。

      Reasoning Model(大模型)

      • 不再接觸原始長文本;
      • 僅基于隱空間中的高密度事實表示執(zhí)行推理。

      Implicit Fact Tokens:一種中間知識表示

      Implicit Fact Tokens 并不是:

      • 句子級摘要
      • 檢索得到的文本片段

      而是一種:

      • 基于問題生成的隱空間表示
      • 高信息密度的知識表示
      • 專門為推理設(shè)計的輸入模態(tài)

      三階段訓(xùn)練:教模型「怎么讀,也怎么想」

      DRIFT 采用三階段訓(xùn)練策略:

      • LFRP:重建任務(wù),讓知識模型學(xué)會壓縮信息;
      • QAFT-DC:動態(tài)壓縮任務(wù),讓知識模型學(xué)會基于 query 壓縮相關(guān)信息;
      • QAFT-QA:QA 任務(wù),讓推理模型學(xué)會基于 latent facts 推理。



      實驗結(jié)果:壓得更狠,反而想得更清楚

      在 LongBench-v2、LoCoMo、BAMBOO、L-Eval 等基準(zhǔn)上進(jìn)行了測試,涵蓋長文本問答、多文檔摘要、多輪對話長程記憶等等場景,模型采用了知識模型 3B 和推理模型 7B 的組合:

      • 32× 壓縮:性能整體接近甚至超過 Full-context;
      • 64× / 128×:穩(wěn)定優(yōu)于 ICAE / COCOM /xRAG 等壓縮方法;
      • 推理延遲:在各上下文長度下保持最低或接近最低。





      種種實驗說明:當(dāng)閱讀和推理被清晰拆分后,模型反而能更高效地工作。

      推理能力并未被削弱:通用語言理解依然在線

      一個自然的問題是:脫離原文閱讀后,推理模型是否會失去通用能力?

      實驗表明并非如此,訓(xùn)練后的推理模型仍能處理復(fù)雜推理、知識問答、代碼生成和指令遵循等通用任務(wù)。



      解耦架構(gòu)帶來的安全收益



      實驗還發(fā)現(xiàn),在Flames、SaladBench、AutoDAN、PAIR等安全基準(zhǔn)上,DRIFT 的安全魯棒性也顯著優(yōu)于原始模型。

      更有意思的是,這一提升并未經(jīng)過任何安全相關(guān)的訓(xùn)練。研究者認(rèn)為這可能源于 DRIFT 的結(jié)構(gòu):推理模型不再直接暴露于攻擊 prompt,而是基于中間知識表示進(jìn)行推理,從而天然降低了越獄攻擊或安全誘導(dǎo)的影響。

      知識解耦的典型應(yīng)用 —— 蛋白質(zhì)理解任務(wù)

      DRIFT 提供的是一種結(jié)構(gòu)性視角:讓小模型「讀」,讓大模型「想」。

      與其讓推理模型承擔(dān)所有職責(zé),不如讓它專注于最擅長的推理能力。這一思路在AGI for Science中同樣成立。以蛋白質(zhì)任務(wù)為例,我們的另一項工作「BioBridge: Bridging Proteins and Language for Enhanced Biological Reasoning with LLMs」中提出了類似的問題:是否有必要讓 LLM 直接理解蛋白質(zhì)序列?

      BioBridge 的答案與 DRIFT 一致:由專門模型負(fù)責(zé)「讀懂蛋白」,LLM 專注「推理」。

      具體來說,就是使用蛋白語言模型(PLM)解析序列并生成 LLM 可理解的中間表示,再由 LLM 基于此進(jìn)行任務(wù)相關(guān)的推理。

      這種reading–reasoning解耦 使 BioBridge 同時保持:

      • 接近 SOTA 蛋白質(zhì)模型 的專業(yè)能力
      • 原有 LLM 的通用能力



      總結(jié)

      從 DRIFT 到 BioBridge,團(tuán)隊看到的是同一條清晰的技術(shù)主線:讓推理模型直接「讀」原始知識輸入往往并不是最優(yōu)選擇;更有效的做法,是先將領(lǐng)域知識提煉為適合推理的表示,再交由推理模型進(jìn)行推理。

      這種結(jié)構(gòu)性的解耦,不僅提高了效率,還可能帶來額外的安全收益。

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點推薦
      全省法院第十二屆“金法槌”杯優(yōu)秀案例丨李春明等訴昆山市第一人民醫(yī)院醫(yī)療損害責(zé)任糾紛案

      全省法院第十二屆“金法槌”杯優(yōu)秀案例丨李春明等訴昆山市第一人民醫(yī)院醫(yī)療損害責(zé)任糾紛案

      常熟市人民法院
      2018-09-13 17:24:22
      周總理好心建議賀龍搬出中南海,賀龍:我沒想到把我看成這種人

      周總理好心建議賀龍搬出中南海,賀龍:我沒想到把我看成這種人

      北海史記
      2026-04-07 17:16:32
      張凌赫在高鐵站崩潰了!?

      張凌赫在高鐵站崩潰了!?

      八卦瘋叔
      2026-04-07 10:38:21
      醫(yī)院最新通知:只發(fā)基本工資,這類醫(yī)務(wù)人員全部轉(zhuǎn)成勞務(wù)派遣

      醫(yī)院最新通知:只發(fā)基本工資,這類醫(yī)務(wù)人員全部轉(zhuǎn)成勞務(wù)派遣

      醫(yī)脈圈
      2026-04-07 12:06:39
      放射專家劉進(jìn)才逝;院士劉玉清去世 | 4月07日健康醫(yī)療日報

      放射專家劉進(jìn)才逝;院士劉玉清去世 | 4月07日健康醫(yī)療日報

      醫(yī)療的視野
      2026-04-07 01:00:25
      回加拿大生活的大山,60歲須發(fā)皆白很滄桑,重慶妻子仍風(fēng)韻猶存

      回加拿大生活的大山,60歲須發(fā)皆白很滄桑,重慶妻子仍風(fēng)韻猶存

      素衣讀史
      2026-03-31 15:11:31
      廣東男籃大魚終于來了!2米13黑硬中鋒即將馳援,杜鋒解燃眉之急

      廣東男籃大魚終于來了!2米13黑硬中鋒即將馳援,杜鋒解燃眉之急

      桃葉渡春
      2026-04-07 17:31:29
      伊朗對美以發(fā)動第99波打擊

      伊朗對美以發(fā)動第99波打擊

      界面新聞
      2026-04-07 18:30:16
      業(yè)內(nèi)人士談上海二手房大幅跳價:此時漲價,未必是最優(yōu)解

      業(yè)內(nèi)人士談上海二手房大幅跳價:此時漲價,未必是最優(yōu)解

      中國能源網(wǎng)
      2026-04-07 11:47:05
      接下來世界要迎接的戰(zhàn)爭,很可能就是大家都在關(guān)注的中日沖突

      接下來世界要迎接的戰(zhàn)爭,很可能就是大家都在關(guān)注的中日沖突

      南權(quán)先生
      2026-04-05 05:20:03
      劉天東,被查!

      劉天東,被查!

      章丘人論壇
      2026-04-07 12:37:25
      俄羅斯讓中國心涼?真正可怕的并非西方圍堵,而是我們低估了自己

      俄羅斯讓中國心涼?真正可怕的并非西方圍堵,而是我們低估了自己

      興史興談
      2026-04-05 12:26:37
      不打伊朗了?特朗普通告全球,戰(zhàn)爭費由22國承擔(dān),朝鮮:不可容忍

      不打伊朗了?特朗普通告全球,戰(zhàn)爭費由22國承擔(dān),朝鮮:不可容忍

      基斯默默
      2026-04-04 10:20:03
      600130,申請撤銷退市風(fēng)險警示!

      600130,申請撤銷退市風(fēng)險警示!

      證券時報e公司
      2026-04-07 19:31:25
      中方突然挑明立場,反對伊朗封鎖海峽?其實是對伊朗最大的保護(hù)

      中方突然挑明立場,反對伊朗封鎖海峽?其實是對伊朗最大的保護(hù)

      大光觀察
      2026-04-07 18:04:18
      娃哈哈百億遺產(chǎn)迎來大反轉(zhuǎn)!宗馥莉攜弟妹掃墓,真不斗了?

      娃哈哈百億遺產(chǎn)迎來大反轉(zhuǎn)!宗馥莉攜弟妹掃墓,真不斗了?

      雷科技
      2026-04-07 16:03:37
      祭祀引發(fā)山火!男子獲刑1年4個月,賠償14萬余元

      祭祀引發(fā)山火!男子獲刑1年4個月,賠償14萬余元

      極目新聞
      2026-04-06 21:45:18
      笑麻了!幼兒園一男生留女同學(xué)過夜,媽媽姐姐忙壞了,評論笑死

      笑麻了!幼兒園一男生留女同學(xué)過夜,媽媽姐姐忙壞了,評論笑死

      另子維愛讀史
      2026-04-06 19:02:39
      開店800家的“中餐薩莉亞”,為何年輕人咽不下去了?

      開店800家的“中餐薩莉亞”,為何年輕人咽不下去了?

      金錯刀
      2026-04-07 14:23:04
      國民黨內(nèi)炸鍋!馬英九鄭麗文徹底撕破臉,鄭麗文或成第二個洪秀柱

      國民黨內(nèi)炸鍋!馬英九鄭麗文徹底撕破臉,鄭麗文或成第二個洪秀柱

      愛下廚的阿釃
      2026-03-27 01:08:12
      2026-04-07 20:28:49
      機(jī)器之心Pro incentive-icons
      機(jī)器之心Pro
      專業(yè)的人工智能媒體
      12701文章數(shù) 142616關(guān)注度
      往期回顧 全部

      科技要聞

      滿嘴謊言!OpenAI奧特曼黑料大起底

      頭條要聞

      英媒:伊朗最高領(lǐng)袖病重昏迷 無法參與任何國家決策

      頭條要聞

      英媒:伊朗最高領(lǐng)袖病重昏迷 無法參與任何國家決策

      體育要聞

      官宣簽約“AI球員”,這支球隊被罵慘了...

      娛樂要聞

      女首富陳麗華離世 被曝生前已分好遺產(chǎn)

      財經(jīng)要聞

      10萬億財政轉(zhuǎn)移支付,被誰拿走了?

      汽車要聞

      不止是大 極狐首款MPV問道V9靜態(tài)體驗

      態(tài)度原創(chuàng)

      游戲
      房產(chǎn)
      數(shù)碼
      手機(jī)
      公開課

      大話西游手游通用套裝哪個好用?仙族首選容止,變身卡不再被克

      房產(chǎn)要聞

      猛料!又有世界500強(qiáng)級巨頭,低調(diào)買入海棠灣!

      數(shù)碼要聞

      榮耀多款新品PC定檔,方飛透露WIN游戲本將成為三角洲聯(lián)賽指定本

      手機(jī)要聞

      華為暢享90 Pro Max升級鴻蒙6.0.0.138 SP23,新增HiCar互聯(lián)

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進(jìn)入關(guān)懷版