<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      NeurIPS25 | 清華&北大提出LinearDiff-ViT:讓Transformer學會“找不同”,實打實提升模型性能

      0
      分享至

      文章來源:我愛計算機視覺(ID:aicvml)

      大家好,我是CV君。今天想和大家聊一篇來自清華大學和北京大學的最新研究,它給熱門的Vision Transformer(ViT)帶來了一次相當漂亮的“線性提速”。

      這篇被 NeurIPS 2025 錄用的論文,標題為《Linear Differential Vision Transformer: Learning Visual Contrasts via Pairwise Differentials》,提出了一種名為“視覺對比注意力”(Visual-Contrast Attention, VCA)的新模塊。簡單來說,VCA就像是給ViT裝上了一雙“火眼金睛”,讓它不再是“一視同仁”地看圖中所有內容,而是學會了主動“找不同”,聚焦于那些真正具有區分度的信息。最關鍵的是,這個新模塊幾乎不增加計算量,卻能實打實地提升模型性能。

      下面是論文的基本信息,感興趣的朋友可以深入研究:



      • 論文標題 : Linear Differential Vision Transformer: Learning Visual Contrasts via Pairwise Differentials

      • 作者團隊 : Yifan Pu, Jixuan Ying, Qixiu Li, Tianzhu Ye, Dongchen Han, Xiaochen Wang, Ziyi Wang, Xinyu Shao, Gao Huang, Xiu Li

      • 所屬機構 : 清華大學、北京大學

      • 論文地址 : https://arxiv.org/abs/2511.00833

      • 項目主頁 : https://github.com/LeapLabTHU/LinearDiff

      ViT的“甜蜜煩惱”與VCA的誕生

      熟悉CV的朋友們都知道,Vision Transformer(ViT)現在是遍地開花,無論圖像識別還是圖像生成,都能看到它的身影。但ViT也有個“甜蜜的煩惱”——它的核心部件,多頭自注意力(Multi-Head Self-Attention, MHSA),計算量太大了。

      MHSA會對圖像中的每一對圖塊(token)都進行相似度計算,這是一個平方級別的復雜度(O(N2))。這意味著,圖像越大、圖塊越多,計算成本就呈指數級增長。很多時候,模型把大量的算力都浪費在了計算那些沒啥信息量或者重復的區域關系上。

      為了解決這個問題,研究者們想了不少辦法。有的方法限制注意力范圍,比如只在局部窗口內計算,但這又可能丟失全局信息。有的方法用低秩分解或傅里葉變換來近似注意力矩陣,但它們還是平等地對待所有信息,沒能抓住重點。

      而這篇論文的作者們另辟蹊徑,他們認為,與其被動地處理所有信息,不如讓模型主動去發現“對比”和“差異”。這個想法催生了 視覺對比注意力(VCA)。

      VCA如何實現“找不同”?

      VCA的設計非常巧妙,可以即插即用地替換掉原來ViT中的MHSA模塊。它的核心思想分為兩步:

      第一階段:生成全局對比信息

      首先,VCA不再讓所有的查詢(query)都去和鍵(key)直接硬碰硬。它選擇了一種更聰明的方式:

      1. 信息壓縮 :對于每個注意力頭,VCA先把整個圖像的查詢特征圖(Query Feature Map)通過平均池化(Average Pooling)操作,壓縮成一個很小的網格(比如8x8)。這樣,原來成百上千的圖塊(token)就被濃縮成了幾十個“視覺對比令牌”(visual-contrast tokens)。

      2. 創建正負“視角” :接下來是關鍵一步。VCA為這些濃縮后的令牌添加兩種不同的、可學習的位置編碼,從而創造出兩個“流”:一個“正向流”(positive stream)和一個“負向流”(negative stream)。你可以把它們想象成從兩個略有不同的角度去觀察同一份濃縮信息。

      3. 差分交互 :這兩個流分別與全局的鍵(key)和值(value)進行交互,然后將得到的結果相減。這一減,神奇的事情發生了——那些在兩個“視角”下都差不多的普通信息被抵消了,而那些有顯著差異的、真正重要的對比信息就被凸顯了出來。

      通過這個過程,VCA用很小的計算代價,就提煉出了一份信息量極高的“全局對比圖”。

      第二階段:基于對比圖進行精細化注意力

      有了這份“全局對比圖”,第二階段就簡單高效多了。原始的每個圖塊查詢(patch query)不再需要跟所有其他圖塊去比較,而是直接與這份濃縮的“對比圖”進行交互。

      這個交互同樣是差分式的,查詢會同時關注對比圖的“正向”和“負向”信息,最終計算出每個圖塊在“對比”視角下的重要性。

      整個過程下來,VCA成功地將計算復雜度從 O(N2C) 降低到了 O(NnC),其中 n 是對比令牌的數量,遠小于 N。這意味著計算成本與圖塊數量 N 之間變成了線性關系,ViT終于可以“減負”了。

      效果如何?數據說話

      理論說得再好,還得看實際效果。作者們在圖像分類和圖像生成兩大任務上對VCA進行了充分驗證。

      圖像分類:精度顯著提升

      在ImageNet-1K分類任務上,VCA的效果非常驚人。


      從上表可以看到:

      • 給輕量的DeiT-Tiny模型換上VCA后,參數量只增加了0.3M,計算量(FLOPs)不變,但Top-1準確率直接從72.2%提升到了 75.6% ,足足高了 3.4 個百分點!

      • 即使是對于Swin Transformer這類已經經過優化的層級式ViT,VCA同樣能帶來穩定的性能提升,最高提升了 3.1 個百分點(在PVT-Tiny上)。

      CV君認為,這個結果說明VCA的“對比”機制確實抓住了圖像識別的關鍵,而且它的普適性很好,能給各種ViT架構帶來增益。

      圖像生成:生成質量更高

      在類條件圖像生成任務上,作者們將VCA應用到了DiT(Diffusion Transformer)和SiT(Flow Transformer)模型上。評價指標是FID,這個值越低說明生成圖像的質量越高。


      結果同樣令人印象深刻:

      • 在各種模型尺寸和配置下,VCA都穩定地降低了FID分數。

      • 對于DiT-S/4模型,FID分數降低了 5.2 點;對于DiT-S/2模型,FID降低了 4.9 點。

      • 無論是基于擴散的DiT還是基于流的SiT,VCA都能起作用,證明了它對生成范式的普適性。

      消融實驗:每個設計都不可或缺

      為了證明VCA的設計不是“玄學”,作者還做了詳盡的消融實驗。


      上表驗證了VCA兩個階段的協同作用。無論是只用第一階段的全局對比,還是只用第二階段的差分注意力,性能都有提升,但將兩者結合起來效果最好。


      而這張表則證明了“空間池化”和“雙位置編碼”這兩個設計的必要性。簡單地使用可學習的嵌入(Embedding)雖然也有效果,但遠不如從圖像本身通過池化(Pooling)獲取信息,并用正負位置編碼來區分“視角”來得有效。這說明,讓模型從數據中學習對比線索,才是VCA成功的關鍵。

      總結

      總的來說,VCA用一個簡單、輕量且高效的“差分”思想,漂亮地解決了ViT的計算瓶頸,并帶來了實實在在的性能飛躍。它提醒我們,有時候注意力機制不一定非得是“相似性”的度量,也可以是“差異性”的發現者。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      俄羅斯軍事專家:“美軍撤離亞太前,或會徹底清算這三個國家”

      俄羅斯軍事專家:“美軍撤離亞太前,或會徹底清算這三個國家”

      通文知史
      2025-12-20 21:45:03
      中國一女性在歐洲郵輪航線經停站失聯,在船期間僅消費過一杯橙汁

      中國一女性在歐洲郵輪航線經停站失聯,在船期間僅消費過一杯橙汁

      瀟湘晨報
      2025-12-21 17:21:14
      總決賽戰報:國羽1金1銀韓國1金日本1銀,決賽王祉怡21-18安洗瑩

      總決賽戰報:國羽1金1銀韓國1金日本1銀,決賽王祉怡21-18安洗瑩

      求球不落諦
      2025-12-21 18:01:51
      癌癥去世的人越來越多?醫生反復提醒:寧可打打牌,也別做這5事

      癌癥去世的人越來越多?醫生反復提醒:寧可打打牌,也別做這5事

      蜉蝣說
      2025-12-19 22:01:31
      李湘帶王詩齡擠高端圈遇挫,穿搭太張揚被安排到禮儀區,尷尬拉滿

      李湘帶王詩齡擠高端圈遇挫,穿搭太張揚被安排到禮儀區,尷尬拉滿

      巧妹電影
      2025-12-21 14:42:39
      56歲王菲沒想到,過年還剩兩個月,45歲謝霆鋒再一次讓人刮目相看

      56歲王菲沒想到,過年還剩兩個月,45歲謝霆鋒再一次讓人刮目相看

      一娛三分地
      2025-12-20 19:17:33
      笑岔氣了!果然斷句是中國人一生的宿敵,只能說中國文化博大精深

      笑岔氣了!果然斷句是中國人一生的宿敵,只能說中國文化博大精深

      夜深愛雜談
      2025-12-19 16:39:58
      迪麗熱巴“天使蹲”火出圈,顏值驚艷全網,醫生:無基礎者慎入

      迪麗熱巴“天使蹲”火出圈,顏值驚艷全網,醫生:無基礎者慎入

      悠悠說世界
      2025-12-21 08:34:39
      12月20日俄烏最新:最大的新聞和最大的驚喜

      12月20日俄烏最新:最大的新聞和最大的驚喜

      西樓飲月
      2025-12-20 15:18:53
      張蘭去汪小菲家過冬至!提前一晚做醉蟹、包餃子,給馬筱梅做牛排

      張蘭去汪小菲家過冬至!提前一晚做醉蟹、包餃子,給馬筱梅做牛排

      笑一個吧
      2025-12-21 18:38:37
      比糖和鹽還傷血管,已被世衛組織拉入“黑名單”,勸你早日忌口

      比糖和鹽還傷血管,已被世衛組織拉入“黑名單”,勸你早日忌口

      39健康網
      2025-12-20 20:16:48
      穆里尼奧強勢復蘇,本菲卡豪取8場不敗重燃爭冠希望

      穆里尼奧強勢復蘇,本菲卡豪取8場不敗重燃爭冠希望

      星耀國際足壇
      2025-12-21 19:35:23
      顏值身材天花板,黑絲加持+演技炸裂

      顏值身材天花板,黑絲加持+演技炸裂

      貴圈真亂
      2025-12-21 11:27:02
      零負債人群誕生了!這才是真正的人間清醒!這群人會越來越多嗎?

      零負債人群誕生了!這才是真正的人間清醒!這群人會越來越多嗎?

      正經說個事兒
      2025-12-21 07:05:35
      震驚!呂梁博物館征集文物公告,評論區遭網友“慰問”,被迫刪除

      震驚!呂梁博物館征集文物公告,評論區遭網友“慰問”,被迫刪除

      火山詩話
      2025-12-21 11:17:28
      揮淚斬馬謖!皇馬批準,放逐9000萬“頂星”!1.1億強援冬窗來投

      揮淚斬馬謖!皇馬批準,放逐9000萬“頂星”!1.1億強援冬窗來投

      頭狼追球
      2025-12-21 14:18:13
      外媒:柬方感謝中國調停柬泰沖突

      外媒:柬方感謝中國調停柬泰沖突

      參考消息
      2025-12-21 21:27:18
      清華大學社會科學學院政治學系系主任楊雪冬:“為何中國方案最能落地”的兩個原因

      清華大學社會科學學院政治學系系主任楊雪冬:“為何中國方案最能落地”的兩個原因

      環球網資訊
      2025-12-20 22:15:13
      “恨國女”許可馨:移民美國,已結婚,丈夫大量照片曝光遭質疑

      “恨國女”許可馨:移民美國,已結婚,丈夫大量照片曝光遭質疑

      小熊侃史
      2025-12-20 10:53:55
      天吶!原來大錢是這么來的!網友:難怪我螺絲打到冒煙都賺不到錢

      天吶!原來大錢是這么來的!網友:難怪我螺絲打到冒煙都賺不到錢

      夜深愛雜談
      2025-12-20 17:40:11
      2025-12-21 22:52:49
      算法與數學之美 incentive-icons
      算法與數學之美
      分享知識,交流思想
      5273文章數 64595關注度
      往期回顧 全部

      科技要聞

      生態適配已超95% 鴻蒙下一關:十萬個應用

      頭條要聞

      美國外交系統現重大調整 約有24名駐外大使被要求離任

      頭條要聞

      美國外交系統現重大調整 約有24名駐外大使被要求離任

      體育要聞

      勇士火箭贏球:王牌之外的答案?

      娛樂要聞

      星光大賞太尷尬!搶話擋鏡頭,場地還小

      財經要聞

      老房子“強制體檢”,政府出手了

      汽車要聞

      -30℃,標致508L&凡爾賽C5 X冰雪"大考"

      態度原創

      教育
      家居
      數碼
      手機
      軍事航空

      教育要聞

      遇到油鹽不進的孩子,該怎么辦?

      家居要聞

      高端私宅 理想隱居圣地

      數碼要聞

      Intel顯卡沖擊高端:竟然要直接上32GB顯存!

      手機要聞

      曝折疊屏iPhone嘗試 UFG 玻璃,明年九月發

      軍事要聞

      石破茂:擁核絕不會給日本帶來正面影響

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 日韩一区二区三区女优丝袜| 精品国产亚洲第一区二区三区| 精品无码国产自产拍在线观看蜜| 欧美国产综合欧美视频| 亚洲国产精品成人综合色在线婷婷| 亚洲成av人片天堂网无码 | 色欲狠狠躁天天躁无码中文字幕| 337p粉嫩大胆色噜噜噜| 九九成人精品| 亚洲avav| 苍井空亚洲精品AA片在线播放| 精品国产一区二区三区香蕉| 濉溪县| 国产一区二区日韩在线| 18禁美女裸体无遮挡网站| 快好爽射给我视频| 久久久久久久久无码| 内射干少妇亚洲69XXX| av无码国产精品色午夜| 精品av无码国产一区二区| 精品人伦一二三区| 伊人网狼人| 伊人久久大香线蕉av五月天| 国产精品XXXX国产喷水| 久久精品无码av| 亚洲人妻自拍| 99视频免费观看| 日本高清免费AAAAA大片视频| 久久久久无码精品国产h动漫| 日本丰满少妇xxxx| 日本www一道久久久免费| 容城县| 黑人AV网站| 亚洲国产成人久久77| 国产精品秘入口18禁麻豆免会员| 亚洲中文字幕无码专区| 沂水县| 91丝袜视频| 国精产品乱码一区一区三区四区| 久久先锋男人av资源网站| 秋霞二区|