<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      DeepSeek又又又又發新論文了!這一次,他們重構了AI看圖的方式

      0
      分享至

      今天,DeepSeek又又又又發論文了。


      看到的時候,我的第一反應是:這特么今年才過了不到一個月,我已經寫了三篇DeepSeek論文解讀了。照這個節奏,我是不是要轉型成"DeepSeek論文博主"了?

      不過這次倒是沒梁文鋒什么事(替他松口氣),署名里沒看到他。

      說起來,最近Clawdbot挺火的,后臺也一直有粉絲留言讓我出教程。但相比追這種應用層的熱點,我覺得還是讀讀論文更有意思——畢竟之前幾篇DeepSeek論文解讀,大家的反饋都挺好,說是終于看懂了技術內核。

      所以,咱們還是繼續讀論文。

      這次的論文叫DeepSeek-OCR 2,看起來是個很垂直的OCR模型。我承認,看到標題時覺得有點無聊——OCR?這么細分的領域,值得單獨發論文嗎?

      但讀完之后,我覺得這可能是他們今年最重要的技術突破之一。倒不是因為OCR本身多重要,而是因為他們在這個小問題里,提出了一個關于視覺語言模型(VLM)架構的有趣洞察:

      AI看圖的方式,一直都錯了。

      你看報紙的方式,和AI完全不同

      想象你拿起一份報紙。


      你的眼睛會怎么動?大概率是這樣:先掃一眼大標題,跳到配圖,看一眼圖片說明,再決定要不要讀正文。如果是多欄排版,你會根據內容的"重要性"在各欄之間跳躍,而不是從左上角第一個字開始,一行行掃到右下角。

      這不是什么高深的認知科學發現。這是你每天都在做的事。

      但AI不是這樣看圖的。

      傳統的視覺語言模型(VLM)處理圖像的方式,更像一臺復印機:從左到右,從上到下,逐行掃描。不管圖像里有什么,不管哪里重要哪里不重要,它都用同一種機械的順序把圖像"讀"成一串數字。

      這個問題存在了很多年。直到最近,DeepSeek在一篇看起來很"小"的論文里,提出了一個挺"大"的洞察。

      1967年的眼動實驗

      在講DeepSeek的解法之前,我想先聊一個認知科學的經典實驗。

      1967年,蘇聯心理學家Alfred Yarbus做了一個著名的眼動追蹤實驗。他讓不同的被試看同一幅畫——列賓的《意外歸來》,畫的是一個流放者突然回到家中的場景。


      有意思的是,Yarbus給每個被試不同的任務指令:

      • "估計這家人的經濟狀況"

      • "記住畫中人物的位置"

      • "猜測這個人離開家多久了"

      結果發現,同一幅畫,不同任務下,被試的眼動軌跡完全不同。


      讓估計經濟狀況的人,眼睛會在家具、墻壁裝飾之間跳躍。讓猜測離開時間的人,眼睛會在歸來者的臉和家人的表情之間反復掃視。

      這說明什么?人類的視覺不是被動的接收,而是主動的搜索。我們的眼睛去哪里,取決于我們想知道什么,取決于我們之前已經看到了什么。

      用論文里的話說,人類視覺是"因果性"的——每一次注視都依賴于之前獲得的信息來決定下一步看哪里。

      而傳統AI沒有這個能力。它只會機械地掃。

      小徑分岔的花園

      博爾赫斯有一篇短篇小說,叫《小徑分岔的花園》。


      故事里有一座神秘的花園,主人公最終發現,這座花園其實是一部小說——一部在每個敘事節點都分叉出所有可能性的小說。在這部小說里,主人公可以同時選擇所有的路徑,每條路徑都是真實的。

      這個隱喻用來理解DeepSeek OCR 2的核心創新,挺合適。

      傳統VLM就像一個只會走直線的人穿越迷宮。從入口到出口,只有一條固定的路線:從左到右,從上到下。不管迷宮的結構如何,不管哪條路更近,它都只會沿著預設的方向走。

      而人類看圖——以及DeepSeek想讓AI學會的方式——是站在每個岔路口,根據眼前的信息決定下一步往哪走。這條路看起來有標題?先走這邊。那邊有張圖表?跳過去看看。

      這就是論文標題里"Visual Causal Flow"(視覺因果流)的含義:讓AI學會根據已經看到的內容,因果性地決定接下來看哪里。

      DeepSeek的解法:兩階段級聯推理

      理解了問題,DeepSeek的解法就很自然了。

      核心思路是:把"看圖"這件事拆成兩步。

      第一步:推理"應該按什么順序看"

      傳統VLM直接把圖像拍平成一串token,順序是固定的。DeepSeek的做法是,先讓模型學會重新排列這些token的順序——根據圖像的語義內容,而不是空間位置。

      這一步由一個叫"DeepEncoder V2"的編碼器完成。它會輸出一組"因果流查詢"(causal flow query),這些查詢token會按照模型認為合理的順序,依次"注視"圖像的不同部分。

      第二步:在正確的順序上做推理

      重排之后,再把這些有序的視覺信息交給LLM做文本生成(比如OCR識別)。

      因為順序對了,LLM就能更好地理解文檔的邏輯結構。比如先看到標題,再看到正文,而不是先看到頁腳的頁碼。

      一個巧妙的注意力mask

      技術細節我盡量簡化。

      DeepEncoder V2的核心是一個巧妙的注意力機制設計。它把輸入分成兩部分:

      視覺token:用雙向注意力,每個token都能看到所有其他token。這保證了全局的感知能力。

      因果流查詢:用因果注意力,每個查詢只能看到前面的查詢和所有視覺token。這讓查詢之間形成"順序"——第一個查詢決定先看哪,第二個查詢基于第一個的結果決定接下來看哪。


      兩種注意力拼在一起,就形成了一個特殊的注意力mask矩陣。視覺token負責"感知",因果查詢負責"排序"。

      另一個有意思的設計:他們用一個小型LLM(Qwen2-500M)替換了傳統的CLIP ViT作為視覺編碼器。這讓編碼器本身就具備了"推理"能力,而不只是特征提取。

      效果怎么樣

      說點實際的。

      在OmniDocBench v1.5這個文檔解析基準測試上,DeepSeek OCR 2達到了91.09%的綜合得分,比前代提升了3.73%。

      更有意義的是"閱讀順序"指標的提升——編輯距離從0.085降到了0.057。這說明模型確實學會了按更合理的順序"讀"文檔,而不只是識別準確率提高了。

      在實際生產環境中(DeepSeek的在線OCR服務和預訓練數據管線),輸出的重復率也從6.25%降到了4.17%,下降了33%。

      而這一切,只用了256到1120個視覺token。作為對比,Qwen2.5-VL-72B要用超過6000個token。


      這只是拼圖的一塊

      OCR 2不是孤立的。

      2026年1月,DeepSeek密集發布了一系列論文:

      1月1日,mHC論文:提出"流形約束超連接",解決大模型訓練的穩定性問題。梁文鋒署名。

      1月12日,Engram論文:提出"條件記憶"機制,實現近乎無限的上下文檢索。梁文鋒署名。

      1月27日,OCR 2論文:視覺因果流,讓AI像人一樣理解圖像。

      這些技術指向同一個方向:更高效、更穩定、更像人。

      它們很可能都會整合進即將發布的DeepSeek V4。根據公開信息,V4預計在2月中旬(春節前后)發布。GitHub代碼庫意外泄露的"MODEL1"代號顯示,這可能是一次架構重構,包括混合精度訓練、Blackwell GPU優化、以及超過100萬token的上下文窗口。

      去年的V3和R1都是在春節窗口發布的。今年看起來也是。

      從"看"的方式開始

      回到OCR 2這篇論文本身。

      它解決的問題看起來很"小"——文檔OCR,把圖片里的文字讀出來。但它觸及的問題挺"大":AI應該怎么理解二維的視覺世界?

      論文的討論部分提到了兩個方向:

      一個是"Towards Genuine 2D Reasoning"——邁向真正的2D推理。用兩個級聯的1D因果推理來逼近2D理解。第一個1D負責"排序",第二個1D負責"推理"。這是否能真正實現2D推理,還有待驗證。

      另一個是"Towards Native Multimodality"——邁向原生多模態。既然可以用LLM當視覺編碼器,那能不能用同一套架構處理圖像、音頻、文本?只需要換一組模態專屬的查詢token就行。

      期待真正的多模態DeepSeek

      說起來,我們之前一直有個遺憾。

      DeepSeek V3和R1都是很強的模型,R1甚至在推理能力上超越了o1。但它們都是純文本模型。在DeepSeek的網站或App上對話時,你能上傳圖片,但模型只是單純地識別圖中的文字,然后基于文字內容回答——本質上還是文本推理。

      這就像一個只能讀字幕的人在"看"電影。

      而從OCR 2這篇論文傳遞的信息看,DeepSeek在多模態上已經邁出了關鍵一步。他們不再滿足于識別文字這種初級的圖像理解,而是在探索如何讓AI真正"理解"視覺信息的結構和語義。

      加上之前泄露的GitHub代碼里,"MODEL1"代號下有大量關于視覺編碼器的配置,以及論文里明確提到的"Native Multimodality"方向——我們有理由期待,即將發布的DeepSeek V4會是一個能力相當不錯的原生多模態模型。

      真正學會看圖。

      這些都是開放的問題。但從DeepSeek的論文發布節奏來看,他們已經在路上了。

      • 論文:https://github.com/deepseek-ai/DeepSeek-OCR-2/blob/main/DeepSeek_OCR2_paper.pdf

      • 模型:https://huggingface.co/deepseek-ai/DeepSeek-OCR-2

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      “溶栓高手”被發現,不是西紅柿!常吃血管干凈,頭暈手麻或緩解

      “溶栓高手”被發現,不是西紅柿!常吃血管干凈,頭暈手麻或緩解

      咖啡豆測評
      2026-04-08 19:19:57
      蔚來 ES9 租電 42 萬元起!一鍵開啟隱私模式,還能在車里泡茶+足療

      蔚來 ES9 租電 42 萬元起!一鍵開啟隱私模式,還能在車里泡茶+足療

      愛范兒
      2026-04-09 23:54:35
      周杰倫現在真的有點太隨意了吧。
演唱會公然說新歌歌詞沒背熟

      周杰倫現在真的有點太隨意了吧。 演唱會公然說新歌歌詞沒背熟

      小光侃娛樂
      2026-04-09 15:55:03
      日本醫院發聲明致歉!中國籍女護士或將面臨巨額賠償,這事千萬別干!

      日本醫院發聲明致歉!中國籍女護士或將面臨巨額賠償,這事千萬別干!

      東京在線
      2026-04-08 20:35:54
      瑜伽褲外穿引發爭議,穿著不當或致尷尬局面

      瑜伽褲外穿引發爭議,穿著不當或致尷尬局面

      特約前排觀眾
      2026-03-24 00:15:04
      女王劉詩詩深藏不露,居家瑜伽照,這腰臀比誰頂得住?

      女王劉詩詩深藏不露,居家瑜伽照,這腰臀比誰頂得住?

      娛樂領航家
      2026-04-09 21:30:03
      前無古人、后難有來者!約基奇即將創造瘋狂的NBA歷史

      前無古人、后難有來者!約基奇即將創造瘋狂的NBA歷史

      夜白侃球
      2026-04-09 10:49:01
      摩根士丹利:中國房地產行業流動性風險看來已基本過去

      摩根士丹利:中國房地產行業流動性風險看來已基本過去

      觀點機構
      2026-04-09 20:10:16
      美媒爆料美國未就涉伊朗臨時停火協議及時與以色列協商,內塔尼亞胡否認

      美媒爆料美國未就涉伊朗臨時停火協議及時與以色列協商,內塔尼亞胡否認

      環球網資訊
      2026-04-09 08:41:50
      日企最后的堡壘正在崩塌,幾乎被中企逼上絕路,難怪日媒這么絕望

      日企最后的堡壘正在崩塌,幾乎被中企逼上絕路,難怪日媒這么絕望

      小熊侃史
      2026-04-08 07:40:09
      禁止非法捕捉!江蘇男子抓151只“小黃豆”,競拍還找“托”抬價

      禁止非法捕捉!江蘇男子抓151只“小黃豆”,競拍還找“托”抬價

      萬象硬核本尊
      2026-04-09 23:12:42
      孫楊:與張豆豆已有孩子

      孫楊:與張豆豆已有孩子

      南方都市報
      2026-04-09 19:55:35
      《霹靂嬌娃》女星曝3年 bikini 噩夢:制片人愛看我穿

      《霹靂嬌娃》女星曝3年 bikini 噩夢:制片人愛看我穿

      娛圈觀察員
      2026-04-07 17:54:35
      離婚7年,文章近況曝光,原來當初毀掉他的,從不是姚笛和馬伊琍

      離婚7年,文章近況曝光,原來當初毀掉他的,從不是姚笛和馬伊琍

      往史過眼云煙
      2026-04-09 20:04:09
      掃墓才知道家里有長輩是餓死的!網友:原來荒誕的從來都只是人生

      掃墓才知道家里有長輩是餓死的!網友:原來荒誕的從來都只是人生

      夜深愛雜談
      2026-04-08 17:04:46
      薛之謙曬滿頭水泡和斑禿,醫生警告:再這么染就真沒了!

      薛之謙曬滿頭水泡和斑禿,醫生警告:再這么染就真沒了!

      毒舌八卦
      2026-04-09 23:06:28
      零緩沖!全國一刀切!6月1日起,車主自己去車管所“橫著走”!

      零緩沖!全國一刀切!6月1日起,車主自己去車管所“橫著走”!

      混沌錄
      2026-04-07 22:00:19
      王寶強和女友開京牌大G到青島,馮清人高馬大,襯得寶強像小嬌夫

      王寶強和女友開京牌大G到青島,馮清人高馬大,襯得寶強像小嬌夫

      八怪娛
      2026-04-07 15:02:12
      男演員最新聲明:已退出美國國籍,正式成為中國公民

      男演員最新聲明:已退出美國國籍,正式成為中國公民

      美芽
      2026-04-08 18:02:54
      江學勤的“伊朗贏學”,不過是滿紙荒唐言

      江學勤的“伊朗贏學”,不過是滿紙荒唐言

      冰川思想庫
      2026-04-09 11:57:47
      2026-04-10 07:35:00
      AI進化論花生 incentive-icons
      AI進化論花生
      AI博主,AppStore付費榜第一的小貓補光燈app開發者
      182文章數 109關注度
      往期回顧 全部

      科技要聞

      Meta凌晨首發閉源大模型 扎克伯格又行了?

      頭條要聞

      消息人士:伊朗在黎巴嫩實現停火前不會與美和談

      頭條要聞

      消息人士:伊朗在黎巴嫩實現停火前不會與美和談

      體育要聞

      8萬人面前心臟驟停 現在他還站在球場上

      娛樂要聞

      金莎官宣結婚 與老公孫丞瀟相差18歲

      財經要聞

      停火又懸了,最糟糕的情況要來了?

      汽車要聞

      文飛掌舵,給神行者帶來了什么?

      態度原創

      藝術
      本地
      時尚
      親子
      公開課

      藝術要聞

      這位清末大家,筆下盡是江南風骨!

      本地新聞

      12噸巧克力有難,全網化身超級偵探添亂

      越來越流行的松弛感穿搭,照著穿就很好看

      親子要聞

      五個月的寶寶必須學溫伯格的宇宙學才不哭

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版