![]()
文本提示圖像分割(Text-prompted image segmentation)是實(shí)現(xiàn)精細(xì)化視覺理解的關(guān)鍵技術(shù),在人機(jī)交互、具身智能及機(jī)器人等前沿領(lǐng)域具有重大的戰(zhàn)略意義。這項(xiàng)技術(shù)使機(jī)器能夠根據(jù)自然語言指令,在復(fù)雜的視覺場景中定位并分割出任意目標(biāo)。
然而,當(dāng)前主流的技術(shù)路徑,如基于監(jiān)督式微調(diào)(Supervised Fine-Tuning, SFT)的方法,正面臨著根本性的瓶頸。這些方法本質(zhì)上是靜態(tài)的模式匹配,雖然在特定數(shù)據(jù)集上表現(xiàn)優(yōu)異,但其泛化能力往往受限,形成了一個(gè)難以逾越的 “能力天花板”。尤其是在處理需要多步、復(fù)雜推理的未知指令時(shí),性能會顯著下降,其根源在于 SFT 方法在訓(xùn)練中忽略了動態(tài)的、顯式的推理過程。
為了 shatter 這一能力天花板,我們引入了 LENS(Learning to Segment Anything with Unified Reinforced Reasoning)框架。LENS 摒棄了靜態(tài)的 SFT,轉(zhuǎn)而采用端到端的強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)機(jī)制,將高層次的 “思考” 過程(即思維鏈推理)與像素級的 “執(zhí)行” 過程(即圖像分割)進(jìn)行動態(tài)的聯(lián)合優(yōu)化。通過這種設(shè)計(jì),LENS 旨在賦予分割模型真正的、上下文感知的推理能力,從而在根本上提升其在復(fù)雜任務(wù)中的魯棒性和泛化性。
本文將深入介紹一下我們 AAAI 榮獲 Oral 的工作,“會思考的分割大模型 LENS”。有幸在這次 AAAI 2026 得到了審稿人們一致正面的評價(jià),并被 AC 和 PC 一致同意推薦為 Oral 論文。
![]()
- 論文標(biāo)題:LENS: Learning to Segment Anything with Unified Reinforced Reasoning
- 論文鏈接:https://arxiv.org/abs/2508.14153
- 代碼鏈接:https://github.com/hustvl/LENS
LENS 框架概覽:推理與分割的協(xié)同進(jìn)化
在這個(gè)工作中,我們研究了分割大模型領(lǐng)域的一大一小兩個(gè)關(guān)鍵問題,大問題就是老生常談的 “泛化能力”,傳統(tǒng)分割大模型對未見過的提示和領(lǐng)域的泛化能力往往有限;小問題則是隱藏的 “信息瓶頸”,此前的分割大模型從 “大腦思考”(MLLM)到 “分割解碼”(SAM)之間往往只通過單一的分割 Token 傳遞信息,存在隱形的 “信息輸送瓶頸”。
![]()
LENS 框架的核心設(shè)計(jì)在于通過端到端的聯(lián)合優(yōu)化,徹底打破傳統(tǒng)模型中 “思考”(推理)與 “執(zhí)行”(分割)之間的信息壁壘。
以往的方法,例如同期的優(yōu)秀工作 Seg-Zero,采用的是非端到端的設(shè)計(jì),即先由推理模型生成邊界框和點(diǎn)提示,再交由現(xiàn)成的(off-the-shelf)SAM 進(jìn)行分割。這種分離式流程的主要缺陷在于誤差的單向傳播。這意味著像 Seg-Zero 這樣的非端到端模型是根本上脆弱的;它們的性能上限被其初始猜測的準(zhǔn)確性所鎖定。一旦推理階段的定位出現(xiàn)偏差,下游的分割模型將無法糾正,最終必然導(dǎo)致分割失敗。相比之下,LENS 通過其端到端的反饋閉環(huán),具備了即便從不完美的初步定位中也能自我糾正的能力。
![]()
LENS 的整體架構(gòu)由三大核心組件構(gòu)成,它們協(xié)同工作,實(shí)現(xiàn)了從高級語義理解到精確像素輸出的無縫銜接:
- 多模態(tài)大語言模型 (MLLM) - 推理核心:作為系統(tǒng)的 “大腦”,LENS 采用先進(jìn)的 MLLM(如 Qwen2.5-VL-3B-Instruct)來處理輸入的圖像和文本指令。它負(fù)責(zé)生成詳盡的思維鏈(Chain-of-Thought, CoT)推理過程,并給出一個(gè)初步的目標(biāo)邊界框。這一過程不僅是定位,更是對指令的深度理解。
![]()
![]()
- 上下文模塊 (Context Module) - 信息橋梁:這是 LENS 的關(guān)鍵創(chuàng)新,它充當(dāng)了 MLLM 和分割模型之間的信息高速公路。該模塊由一組可學(xué)習(xí)的上下文查詢(Context Queries)和一個(gè)連接器(Connector)組成,其任務(wù)是將 MLLM 生成的豐富推理軌跡和定位信息,轉(zhuǎn)化為分割模型能夠高效利用的、信息密集的分割提示
![]()
![]()
- 分割模型 (SAM-2) - 像素解碼器:作為系統(tǒng)的 “雙手”,LENS 采用高性能的分割模型(SAM2-Large)。它接收來自上下文模塊的復(fù)雜指令,并結(jié)合原始圖像信息,執(zhí)行精準(zhǔn)的像素級掩碼生成任務(wù),將推理結(jié)果精確地體現(xiàn)在圖像上。
通過這種 “推理 - 橋接 - 分割” 三位一體的緊密耦合架構(gòu),LENS 實(shí)現(xiàn)了推理質(zhì)量和分割精度的同步提升。這種設(shè)計(jì)使得最終的分割性能可以直接反作用于推理過程的優(yōu)化,形成一個(gè)完整的閉環(huán),為實(shí)現(xiàn)更高水平的通用分割能力奠定了基礎(chǔ)。
LENS 框架同時(shí)在 “思考推理” 端也做出了改進(jìn),我們基于 Group Relative Policy Optimization(GRPO)方法構(gòu)建了統(tǒng)一強(qiáng)化學(xué)習(xí)獎(jiǎng)勵(lì)機(jī)制(Unified Rewards Scheme)。該獎(jiǎng)勵(lì)機(jī)制是多維度的,同時(shí)監(jiān)督以下三個(gè)層級的線索:
- 格式獎(jiǎng)勵(lì)(Format Reward):確保 MLLM 的輸出(包括推理過程和定位結(jié)果)遵循預(yù)期的結(jié)構(gòu)和格式一致性。
- 邊界框 IoU 獎(jiǎng)勵(lì)(Box IoU Reward):衡量預(yù)測邊界框與真實(shí)邊界框之間的定位準(zhǔn)確性。
- 分割掩碼 IoU 獎(jiǎng)勵(lì)(Segment IoU Reward):評估像素級分割掩碼的質(zhì)量。
![]()
通過我們提出的聯(lián)合優(yōu)化(將統(tǒng)一的 GRPO 目標(biāo)與監(jiān)督分割損失相結(jié)合),LENS 能夠從獎(jiǎng)勵(lì)驅(qū)動的推理改進(jìn)和直接的分割監(jiān)督中同時(shí)受益。值得一提的是,LENS 的端到端特性解決了定位錯(cuò)誤(Grounding Error)向下游傳播的問題,如上圖右一右二所示,哪怕有些情況定位框是錯(cuò)的,強(qiáng)大的上下文查詢(Context Query)也能帶領(lǐng)分割模型走向正確。
性能評估與分析
![]()
核心結(jié)果方面,LENS 取得了文本提示分割任務(wù)的最先進(jìn)性能(SoTA):LENS 在 RefCOCO 系列的基準(zhǔn)測試中取得了 81.2% 的平均 cIoU,達(dá)到了世界最高水平。在 GroundingSuite-Eval 這類更具挑戰(zhàn)性的零樣本基準(zhǔn)測試中,LENS 展現(xiàn)出卓越的域外泛化能力,cIoU 達(dá)到 78.3%,超越第二優(yōu)方法接近 10%。
![]()
這些成果表明,LENS 這一類基于統(tǒng)一強(qiáng)化學(xué)習(xí)獎(jiǎng)勵(lì)驅(qū)動的 CoT 推理方法,能夠顯著提升文本提示下的分割能力。我們相信,LENS 為強(qiáng)化學(xué)習(xí)與視覺分割的無縫集成提供了新的思路,并有望推動更通用、更穩(wěn)健的視覺 - 語言系統(tǒng)的研究。代碼和預(yù)訓(xùn)練權(quán)重已開源(https://github.com/hustvl/LENS),感興趣的朋友們歡迎研究和使用。我們也期待在 AAAI 2026 與學(xué)術(shù)界同行進(jìn)行深入交流。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.