<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      多模態檢索新突破,用軟標簽打破傳統剛性映射約束,全面超越CLIP

      0
      分享至

      UniME-V2團隊 投稿
      量子位 | 公眾號 QbitAI

      統一多模態嵌入模型是眾多任務的技術基石。

      當前主流方法通常采用批內負例挖掘策略,通過計算查詢-候選對的相似度進行訓練。

      但這類方法存在明顯局限:難以捕捉候選樣本間細微的語義差異,負例樣本多樣性不足,且模型在區分錯誤負例與困難負例時的判別能力有限。

      針對這些問題,團隊提出全新解決方案——基于多模態大模型語義理解能力的統一多模態嵌入模型UniME-V2。

      該方法首先通過全局檢索構建潛在困難負例集,隨后創新性地引入“MLLM-as-a-Judge”機制:利用MLLM對查詢-候選對進行語義對齊評估,生成軟語義匹配分數。

      這一設計帶來三重突破:

      • 以匹配分數為依據實現精準困難負例挖掘,有效規避錯誤負例干擾
      • 確保篩選出的困難負例兼具多樣性與高質量特性
      • 通過軟標簽機制打破傳統一對一的剛性映射約束



      通過將模型相似度矩陣與軟語義匹配分數矩陣對齊,使模型真正學會辨析候選樣本間的語義差異,顯著提升判別能力。

      為進一步提升性能,團隊基于挖掘的困難負例訓練出重排序模型UniME-V2-Reranker,采用配對與列表聯合優化策略。



      圖1 UniME-V2與以往方法的本質不同,在于巧妙利用了多模態大模型(MLLM)的深層語義理解能力。它不僅能用此能力精準挖掘“困難負例”,更能生成一個軟語義匹配分數,如同一位資深導師,指導模型學會辨別候選樣本間微妙的語義差異。

      方法
      MLLM-as-a-Judge 困難負樣本挖掘

      過去的研究主要依賴于批內硬負樣本挖掘,其中計算查詢-候選嵌入相似性以采樣負樣本。

      然而,這種方法通常受到負樣本多樣性有限和嵌入判別能力不足的困擾,難以有效區分錯誤和困難的負樣本。

      為了克服這些挑戰,如圖2所示,首先利用全局檢索構建一個潛在的困難負樣本集。

      之后,利用MLLM的強大理解能力來評估每個查詢-候選對的語義對齊性,并生成軟語義匹配分數。

      這個分數指導了硬負樣本挖掘,使得能夠識別出多樣化和高質量的困難負樣本,同時減少錯誤負樣本的影響。



      圖2:基于MLLM-as-a-Judge的困難負樣本挖掘流程。我們首先利用現有的多模態嵌入模型進行全局檢索,構建一個潛在的困難負樣本集。然后,利用MLLM強大的理解能力根據語義對齊性對查詢-候選對進行評分,從而精確識別困難負樣本。

      潛在困難負樣本集合為了從全局樣本中提取更高質量的困難負樣本,首先使用VLM2Vec為查詢和候選生成嵌入。

      接著,為每個查詢檢索出50個最相關的候選。

      為了應對錯誤負樣本并增加多樣性,我們基于查詢-候選相似度分數設定一個相似度閾值,并選擇前50名的候選作為潛在的困難負樣本集:

      其中 是由VLM2Vec模型計算得出的查詢 與候選 的相似度分數。

      語義匹配分數在構建潛在的困難負樣本集后,我們使用MLLM作為評判,為中的每個查詢-候選對計算語義匹配分數,具體指令如下:



      隨后,根據()和()標記的logits計算語義匹配分數,其中。這里,表示查詢的數量。利用MLLMs的高級理解能力,語義匹配分數有效地捕捉了查詢和候選之間的語義對齊程度。

      困難負樣本采樣為了提高困難負樣本的質量,利用語義匹配分數對候選進行精煉。

      候選樣本的分數超過閾值(其中表示正樣本,是控制閾值間隔的超參數)則會當作錯誤負樣本并排除。為保持多樣性,采用五步間隔的循環采樣策略。

      如果精煉后的集合包含的候選少于十個,將重復選擇以確保至少有十個。

      在極少數情況下(<1%),如果沒有候選符合條件,將從最初的五十個候選中隨機選擇10個,并給每個分配1.0的語義匹配分數。

      最后,對于每個查詢,我們獲得困難負樣本集及其相應的語義匹配分數。



      圖3:基于MLLM判斷的訓練框架結構。UniME-V2使用軟語義匹配分數作為監督信號,以增強候選者間的語義區分學習。UniME-V2-Reranker采用pairwise和listwise聯合訓練以提升重排序性能。

      基于MLLM判斷的訓練框架

      UniME-V2為此提出了一個基于MLLM判斷的分布對齊框架,如圖3所示,利用軟語義匹配分數作為監督信號來提高表征性能。

      具體來說,給定一個查詢及其候選集,將它們輸入到MLLM中,并提取最后一個標記作為查詢和候選集的嵌入,其中是目標候選的嵌入,是每個查詢的困難負樣本數。然后計算查詢嵌入與候選嵌入之間的關系得分矩陣如下:

      基于語義匹配分數,計算由MLLM判斷得出的語義匹配分數矩陣如下:

      為了增強學習的穩健性并確保矩陣對稱性,采用了JS-Divergence,這是KL-Divergence的一種對稱替代。最終的損失函數定義為:

      除此之外,受前人工作啟發,UniME-V2聯合pairwise和listwise訓練了一個重排序模型UniME-V2-Reranker(如圖3所示)來提高基于初始嵌入的檢索精度。

      在成對訓練中,為每個查詢構造兩對,一對與正候選結合,另一對與最困難的負候選結合。然后指導UniME-V2-Reranker對正候選輸出,對負候選輸出。成對損失使用交叉熵損失函數計算如下:

      其中表示UniME-V2-Reranker的自回歸輸出過程。對于列表訓練,基于語義匹配分數,從困難負候選中選擇前個候選,隨機插入目標候選并獲取其索引。

      然后提示UniME-V2-Reranker輸出真實位置,公式為:

      最終的損失函數定義為。



      表1:MMEB基準測試結果。IND表示在分布內,OOD表示在分布外。分數為補充材料中的平均精度結果。

      實驗
      多模態檢索

      表1展示了在相同訓練數據和配置下UniME-V2與現有基線模型在MMEB基準上的性能對比。

      UniME-V2在各種基礎模型上均有顯著的性能提升。

      具體來說,UniME-V2在Qwen2-VL-2B和7B模型上分別比VLM2Vec高出3.5%和2.2%。

      當基于LLaVA-OneVision作為基礎時,UniME-V2比包括QQMM、LLaVE和UniME在內的之前的最先進模型提高了0.5%-0.9%。此外,UniME-V2在分布外數據集上的得分為66.7,凸顯其魯棒性和卓越的遷移能力。



      表2:在短描述(Flickr30K, MS-COCO)、長描述(ShareGPT4V, Urban1K)和組合(SugarCrepe)數據集上的零樣本文本-圖像檢索結果。

      跨模態檢索

      如表2所示,在零樣本跨模態檢索任務上評估UniME-V2。對于短描述數據集,包括Flickr30K和MS-COCO,UniME-V2在圖像到文本檢索中比UniME表現出了2.2%-9.7%的性能提升。

      在文本到圖像檢索中,其性能與UniME相當,這主要歸因于兩個因素:

      (1)MMEB訓練集中文本到圖像數據的比例有限;

      (2)短描述中的語義信息不足。

      對于長描述跨模態檢索任務,UniME-V2在ShareGPT4V和Urban1K上取得了顯著改進,這得益于其增強的區分能力和詳細描述提供的豐富語義內容。

      值得注意的是,與EVA-CLIP-8B相比,UniME-V2展示了更為穩健的檢索性能,這主要因為其通用多模態嵌入能顯著減少模態間的差距(如圖4所示)。



      圖4:EVA-CLIP-8B與UniME-V2(LLaVA-OneVision-7B)之間的表示分布對比。

      組合跨模態檢索

      基于SugarCrepe評估UniME-V2模型區分困難負樣本的能力。

      如表2所示,UniME-V2在所有評估指標上均表現出卓越性能。

      與UniME相比在使用Qwen2-VL-2B時性能提升了5.3%,6.0%,4.5%。當模型從2B擴展到7B后也實現了9.0%,9.2%,9.2%的性能提升。

      此外,與EVA-CLIP-8B相比,UniME-V2還顯示出2.7%,3.4%,和3.8%的改進,凸顯其在區分困難負樣本上的強大能力。



      表3:使用UniME-V2 (Qwen2-VL-7B) 和 UniME-V2 (Qwen2-VL-2B) 比較LamRA與UniME-V2-Reranker的重排序性能。

      重排序對比

      在表3中基于top5檢索結果對比了LamRA與UniME-V2-Reranker的性能。為確保公平,使用與LamRA相同的訓練參數和基礎模型(Qwen2.5-VL-7B)。

      當使用LamRA和UniME-V2-Reranker對UniME-V2 (Qwen2-VL-2B) 檢索結果進行重排后在四個下游任務上均提升了性能。

      UniME-V2-Reranker在只使用一半數據的情況下始終獲得更優結果。類似地,使用UniME-V2 (Qwen2-VL-7B) 進行檢索時,UniME-V2-Reranker的表現也超過了LamRA,在四個任務中分別獲得了0.5%,0.4%,0.3%,和7.4%的性能提升。

      值得注意的是,UniME-V2-Reranker在組合理解檢索任務中展示了對LamRA的顯著優勢,這歸功于其利用MLLM的理解能力提取多樣化和高質量的困難樣本,有效增強了模型的區分能力。

      論文:

      https://arxiv.org/abs/2510.13515

      GitHub:

      https://github.com/GaryGuTC/UniME-v2

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      河北唐山“釣帝”黑大爺因病去世,享年75歲,家屬:已舉辦告別儀式;此前因戶外垂釣多年皮膚被曬成“老抽色”在網絡上走紅

      河北唐山“釣帝”黑大爺因病去世,享年75歲,家屬:已舉辦告別儀式;此前因戶外垂釣多年皮膚被曬成“老抽色”在網絡上走紅

      揚子晚報
      2026-02-22 09:48:41
      反轉!媽祖巡游所換為女童,從著裝能看出,被換女孩疑炒作刪視頻

      反轉!媽祖巡游所換為女童,從著裝能看出,被換女孩疑炒作刪視頻

      古希臘掌管松餅的神
      2026-02-22 22:21:04
      俄大使館在首爾打出巨幅標語,韓方要求撤下被拒

      俄大使館在首爾打出巨幅標語,韓方要求撤下被拒

      觀察者網
      2026-02-23 10:45:05
      中國“撿錢”時代即將來臨:如果手中只有10萬,試試死啃這兩條線

      中國“撿錢”時代即將來臨:如果手中只有10萬,試試死啃這兩條線

      米果說識
      2026-02-23 09:19:46
      比亞迪造了只“海獺”,要去日本搶飯碗,把本土品牌整不會了!

      比亞迪造了只“海獺”,要去日本搶飯碗,把本土品牌整不會了!

      i王石頭
      2026-02-20 19:33:52
      醫生,你正經點行嗎?盤點那些網友和醫護人員之間爆笑有趣的對話

      醫生,你正經點行嗎?盤點那些網友和醫護人員之間爆笑有趣的對話

      另子維愛讀史
      2026-02-22 21:23:33
      鐵飯碗排名:公務員跌至第8,第1太意外!

      鐵飯碗排名:公務員跌至第8,第1太意外!

      山東教育
      2026-02-22 20:40:12
      毒梟死亡引發多州暴力事件 墨西哥總統呼吁民眾保持冷靜

      毒梟死亡引發多州暴力事件 墨西哥總統呼吁民眾保持冷靜

      極目新聞
      2026-02-23 09:14:54
      弟弟跨越1200公里探望遠嫁姐姐,目睹辛酸生活后淚目:你跟我回家!

      弟弟跨越1200公里探望遠嫁姐姐,目睹辛酸生活后淚目:你跟我回家!

      荷蘭豆愛健康
      2026-02-22 22:55:27
      破25億,張藝謀甘拜下風,春節檔最強電影誕生了

      破25億,張藝謀甘拜下風,春節檔最強電影誕生了

      社會日日鮮
      2026-02-23 05:56:04
      送他走吧!勇士128-117大勝掘金,穆迪狂砍23+7+5,波杰砍18+15+9

      送他走吧!勇士128-117大勝掘金,穆迪狂砍23+7+5,波杰砍18+15+9

      林子說事
      2026-02-23 09:11:04
      從9億回升至15億,《鏢人》逆跌奪得亞軍,吳京開啟漫長回本之路

      從9億回升至15億,《鏢人》逆跌奪得亞軍,吳京開啟漫長回本之路

      電影票房預告片
      2026-02-20 22:51:47
      演員馬衛軍:演了大半輩子日本人,和妻兒定居日本,67歲死在日本

      演員馬衛軍:演了大半輩子日本人,和妻兒定居日本,67歲死在日本

      手工制作阿殲
      2026-02-22 01:13:51
      太詭異,越南春聯上已沒有漢字!越南去漢字化確實很成功

      太詭異,越南春聯上已沒有漢字!越南去漢字化確實很成功

      魔都姐姐雜談
      2026-02-18 13:09:07
      被稱為“中國最大忽悠”的賈躍亭,似乎要翻身了。

      被稱為“中國最大忽悠”的賈躍亭,似乎要翻身了。

      流蘇晚晴
      2026-02-19 16:19:47
      在剛剛,18家公司出現重大利好消息,看看有沒有與你相關的個股?

      在剛剛,18家公司出現重大利好消息,看看有沒有與你相關的個股?

      股市皆大事
      2026-02-23 09:45:12
      高速春節堵車一老板原地賣甘蔗,目擊者發聲:10元一根,不稱重,選好就走

      高速春節堵車一老板原地賣甘蔗,目擊者發聲:10元一根,不稱重,選好就走

      環球網資訊
      2026-02-22 12:21:07
      默茨訪華的目的很明確,德國不想遵守中國的規則,只想賺中國的錢

      默茨訪華的目的很明確,德國不想遵守中國的規則,只想賺中國的錢

      青煙小先生
      2026-02-23 11:33:32
      任正非:“還過個屁年”

      任正非:“還過個屁年”

      深度報
      2026-02-20 22:07:32
      曬曬拼夕夕買過最成功的廚房好物,買前:沒必要,用后:真香了!

      曬曬拼夕夕買過最成功的廚房好物,買前:沒必要,用后:真香了!

      小熊侃史
      2026-02-21 11:15:05
      2026-02-23 12:15:00
      量子位 incentive-icons
      量子位
      追蹤人工智能動態
      12189文章數 176389關注度
      往期回顧 全部

      科技要聞

      騰訊字節,“火拼”漫劇

      頭條要聞

      海湖莊園被擊斃男子身份確認:21歲美國人 曾發布畫作

      頭條要聞

      海湖莊園被擊斃男子身份確認:21歲美國人 曾發布畫作

      體育要聞

      哈登版騎士首敗:雷霆的冠軍課

      娛樂要聞

      谷愛凌奶奶去世,谷愛凌淚奔

      財經要聞

      結婚五金邁入10萬大關 年輕人結婚更難了

      汽車要聞

      續航1810km!smart精靈#6 EHD超級電混2026年上市

      態度原創

      親子
      旅游
      本地
      房產
      公開課

      親子要聞

      自從有了倆雙胞胎,我這家庭地位直線下降啊

      旅游要聞

      埃及阿布·辛拜勒神廟迎來“日光節”

      本地新聞

      春花齊放2026:《駿馬奔騰迎新歲》

      房產要聞

      窗前即地標!獨占三亞灣C位 自貿港總裁行宮亮相

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版