<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      谷歌黑魔法,沒人能看懂的Gemini 3 Flash

      0
      分享至


      新智元報道

      編輯:定慧

      【新智元導讀】參數越小,智商越高?Gemini 3 Flash用百萬級長上下文、白菜價成本,把自家大哥Pro按在地上摩擦。谷歌到底掏出了什么黑魔法,讓整個大模型圈開始懷疑人生?

      Gemini 3 Flash發布已經有段時間了,速度快3倍的同時智力反超Pro。

      但是目前依然沒人能夠說明白:為啥Flash能比Pro還要「聰明」。


      為何一個在參數規模上顯著縮減的模型,能夠在更大規模的模型擅長的領域實現超越?


      長期以來,業界奉行著「參數即正義」的信條,認為更大的模型(更多的參數量)必然帶來更強的智能表現。

      然而,Gemini 3 Flash的出現打破了這一線性邏輯,它不僅在成本和速度上保持了「Flash」系列的輕量級特征,更在多項關鍵基準測試中,尤其是涉及復雜推理和超長上下文的任務上,擊敗了前一代甚至當代的「Pro」級模型。


      而且最近有人發現,在長下文測試中,Gemini 3 Flash更是遙遙領先!

      在OpenAI的MRCR基準測試中,Gemini 3 Flash在100萬上下文長度下達到了90%的準確率!


      這一表現在所有模型中均屬最先進水平,大多數頂尖模型甚至無法突破256k的上下文長度。


      那么谷歌到底用了什么黑魔法?

      Gemini 3 Flash憑什么在百萬長文本與低成本間實現「降維打擊」?

      知名AI研究員@bycloudai在深入評測后指出,谷歌可能在模型架構研究上已處于「遙遙領先」的隱形地位

      這一表現打破了行業常規認知:它既沒有像標準注意力機制那樣產生高昂算力成本,也沒有像常見的線性注意力或SSM混合模型那樣導致知識推理能力下降。

      Gemini 3 Flash似乎掌握了某種未知的「高效注意力機制」,令外界對其背后的技術原理直呼「看不懂」但大受震撼。


      再挖掘Gemini 3 Flash的黑魔法錢,有必要先介紹一下這個評測標準。

      在2023年至2024年間,評估大語言模型長上下文能力的主流方法是「大海撈針」(Needle In A Haystack,NIAH)。

      該測試將一個特定的事實(針)插入到長篇文檔(大海)的隨機位置,要求模型將其檢索出來。

      然而,隨著模型上下文窗口擴展至128k甚至1M token,NIAH測試迅速飽和。

      Gemini 1.5 Pro、GPT-4 Turbo等早期模型在該測試中均能達到近乎100%的準確率。

      NIAH本質上測試的是檢索能力而非推理能力。

      它要求模型找到信息,但不要求模型理解信息之間的復雜依賴關系。

      這導致了一種錯覺:似乎所有模型都完美掌握了長上下文。

      但在實際的企業級應用(如法律文檔分析、代碼庫理解)中,用戶不僅需要模型找到「條款A」,還需要模型理解「條款A」與「條款B」在特定條件下的沖突,這種高階能力是NIAH無法覆蓋的。

      正是在這種背景下,Context Arena應運而生。


      這是一個由獨立研究者(如Dillon Uzar等人)維護的、專注于長上下文理解能力評估的基準平臺。

      Context Arena不僅僅是一個排行榜,它是一個針對大模型「注意力缺陷」的診斷工具看,衡量模型「智商」和長程記憶穩定性的試煉場。

      Context Arena最具殺傷力的武器是MRCR(Multi-Round Co-Reference Resolution)基準測試。

      OpenAI受到Gemini的啟發,也搞了一個OpenAI-MRCR,就是一開始上面所說的評測基準。


      這是一個設計精巧的壓力測試,旨在擊穿那些使用近似注意力機制(如線性注意力或稀疏注意力)的模型的防線。

      測試機制是這樣的,MRCR會生成一段極長的、多輪次的合成對話或文本。

      在這些文本中,系統會植入多個高度相似的「針」(Needles)。

      例如,文本中可能包含8首關于「貘」(tapir)的詩,每首詩的風格略有不同但主題一致。

      挑戰點在于系統會向模型提出極其刁鉆的指令,如:「請復述關于貘的第二首詩」或「找出第四次提到貘時的具體描述」。

      在Context Arena的MRCR榜單上,Gemini 3 Flash展現出了驚人的統治力。


      這直接證明了Gemini 3 Flash并未為了速度而犧牲核心的「注意力精度」。

      猜猜谷歌用了什么技術

      我們來對比一下常見的注意力機制。

      標準注意力是指數級的,所以誕生了一種新技術叫做線性注意力。



      另外一種還有稀疏注意力。

      稀疏注意力保留了標準注意力的高精度,但通過只計算「重要」的部分來降低計算量。

      比如,DeepSeek的DSA(DeepSeek SparseAttention)。


      DeepSeek認為,對于任何一個查詢,絕大多數歷史信息都是無關的。因此,沒必要計算全量的注意力。

      DSA使用一種啟發式算法(如Lightning Indexer),快速篩選出最相關的Top-K個 token或塊(Block),只對這些部分進行精細計算。

      此外還有一些混合架構,比如Gemini的策略。

      雖然谷歌未公開細節,但業界推測Gemini 3 Flash也是一種高度復雜的混合架構,可能在底層使用Infini-attention處理超長歷史,在頂層使用標準注意力進行邏輯推理,并結合MoE(混合專家模型)來進一步降低計算成本。

      總結來說,谷歌之所以能讓Gemini 3 Flash實現「輕量級打Pro」,并非依賴單一的黑科技,而是基于TPU硬件、算法架構、訓練數據三位一體的深度優化:

      • 數據層面(Data):利用Gemini 3 Pro進行大規模的思維鏈蒸餾,將高階推理能力「壓縮」進Flash模型,使其具備了超越參數規模的「智商」。

      • 計算層面(Compute):引入Thinking(思考)機制,允許模型在推理時動態分配計算資源。對于難題,Flash模型會像人一樣「停下來想一想」,這種時間維度上的算力投入彌補了空間維度(參數量)的不足。

      • 記憶層面(Memory):部署Infini-attentionTitans風格的記憶模塊,將指數級的注意力成本降維,實現了在1M+上下文中依然保持高精度的檢索能力,徹底解決了長上下文帶來的問題。


      Gemini 3 Flash的核心戰略意義

      「Flash」一詞在谷歌的產品線中歷史悠久,從Gemini 1.5 Flash開始,它就被定位為高吞吐量、低延遲的工具,主要用于簡單任務的快速處理。

      這種定位在用戶心中植入了一個根深蒂固的假設:Flash模型是Pro模型的蒸餾版本。

      在傳統的模型壓縮理論中,蒸餾意味著學生模型只能逼近但永遠無法超越教師模型的表現。

      因此,當Gemini 3 Flash發布時,絕大多數分析師和開發者將其視為一個更便宜的API端點,而非一個推理引擎的革新。

      然而,上面的數據告訴我們,Gemini 3 Flash正在講述一個完全不同的故事。

      這種「輕量級反而更強」的現象,不能簡單地用更精細的數據清洗或更長的訓練時間來解釋。

      它暗示了底層架構的根本性變化——一種不再單純依賴參數規模堆疊,而是依賴于更高效的信息路由與記憶機制的新型架構。

      Gemini 3 Flash的核心戰略意義在于它打破了AI經濟學中的線性增長法則。

      在過去,要獲得10%的智能提升,通常需要10倍的算力投入。

      但Gemini 3 Flash以$0.50/1M輸入 token的極低價格,提供了GPQA Diamond基準測試中90.4%的博士級推理能力。

      這意味著谷歌不僅僅是在打價格戰,而是在進行一場架構層面的降維打擊。

      當一個模型的推理成本低到可以忽略不計,且其長上下文召回能力達到完美(>99%)時,它就不再僅僅是一個聊天機器人,而是一個可以吞噬整個企業知識庫、實時重構代碼庫、并自主進行多輪迭代的「智能代理」(Agent)。

      是的,如果一個模型足夠的輕量、又能夠記住足夠的東西、關鍵是又很便宜,那其他「智能體」還怎么生存?

      這種能力的解鎖,使得Gemini 3 Flash成為了當前AI智能體爆發的關鍵推手。

      在Pokémon游戲通關測試和SWE-bench代碼修復任務中,Flash模型的表現之所以能超越Pro模型,正是因為其低延遲和低成本允許代理在單位時間內進行更多的「思考-行動-反思」循環。

      這種通過高頻迭代來彌補單次推理深度不足(甚至在很多時候單次推理并不弱)的策略,正是當前AI進化的主要趨勢。

      谷歌的終極武器:Titans架構與神經長時記憶

      結合Gemini 3 Flash在Context Arena的MRCR基準測試中100萬上下文90%準確率的驚人表現,以及其低廉的推理成本,最合理的推測是:

      Gemini 3 Flash大規模應用了谷歌DeepMind最新的「Titans」架構或其變體。


      根據谷歌發表的Titans論文,這是一種結合了Transformer和神經記憶的新型架構。

      這些框架讓AI模型能夠更快地工作,并通過更新核心內存在運行時處理大規模上下文。


      Titans包含三個部分:

      • 核心(Core,短期記憶,通常是滑動窗口注意力)

      • 長期記憶(Long-term Memory)

      • 持久記憶(PersistentMemory)。

      與傳統的RNN(存儲固定狀態向量)不同,Titans的長期記憶是一個深度神經網絡(MLP)。

      當模型處理輸入時,它不僅僅是把信息存入緩存,而是通過梯度下降實時更新這個MLP的權重。

      模型在推理階段(TestTime)實際上是在「學習」當前的上下文。

      它利用一個「驚奇度」(Surprise Metric)指標來衡量新信息的重要性。

      如果一段信息(比如用戶指定的隨機哈希碼)出乎模型的預料(High Surprise),模型就會通過梯度更新將其刻入長期記憶網絡中。

      為什么Titans完美解釋了Gemini 3 Flash的表現?


      1. 無限上下文與線性復雜度:

        Titans的MAC(Memory as Context)變體允許將歷史信息壓縮進神經網絡權重,而非無限增長的KVCache。這解釋了為什么Flash能以極低的內存占用處理百萬級 token,且速度極快(線性推理)。

      2. MRCR的高分:

        在MRCR測試中,模型需要記住非常具體的細節(Needles)。在Titans架構下,這些獨特的、重復出現的「Needles」會產生高驚奇度信號,從而被優先「學習」進記憶模塊,而大量的干擾文本則會被遺忘門過濾。這比基于相似度檢索的傳統注意力機制更能抵抗噪聲。

      3. 自適應能力:

        用戶反饋稱Gemini 3 Flash似乎能「學會」用戶的糾正。這正是Titans「測試時學習」特性的體現——模型在對話過程中動態調整了參數。


      在這兩篇新論文《Titans》和《MIRAS》中,谷歌提出了一種架構和理論藍圖,結合了RNN的速度與變換器精度。

      Titans是具體的架構(工具),MIRAS是理論框架(藍圖),用于推廣這些方法。

      它們共同推動了測試時間記憶的概念,即AI模型通過在模型運行時加入更強大的「驚喜」指標(即意外信息片段)來維持長期記憶的能力,無需專門的離線再訓練。


      一個有效的學習系統需要不同但相互關聯的記憶模塊,這反映了人腦對短期記憶和長期記憶的分離。

      雖然注意力機制在精確短期記憶方面表現出色,Titans引入了一種新型神經長期記憶模塊,它不同于傳統RNN中的固定大小向量或矩陣記憶,它充當深度神經網絡。

      該內存模塊提供了顯著更高的表達能力,使模型能夠在不丟失重要上下文的情況下總結大量信息。模型不僅僅是做筆記,而是理解并綜合整個故事。

      關鍵是,泰坦不僅僅是被動存儲數據。

      它主動學習如何識別并保留連接整個輸入中Token的重要關系和概念主題。這項能力的一個關鍵方面是我們所說的「驚喜指標」。

      在人類心理學中,我們知道我們會很快且容易地忘記例行公事、預期中的事件,但會記住打破常規的事情——意外、驚喜或情緒激動的事件。


      在《泰坦》的語境中,「驚訝指標」指的是模型檢測到當前記憶與新輸入信息之間的巨大差異。

      • 低驚訝:如果新詞是「cat」,且模型的記憶狀態已經預期動物詞,則梯度(驚訝)較低。它可以安全地跳過長期永久狀態下的「貓」這個詞。

      • 高驚喜:如果模型的記憶狀態正在總結一份嚴肅的財務報告,而新輸入是一張香蕉皮的圖片(意外事件),那么梯度(驚喜)會非常高。這表明新輸入重要或異常,必須優先存儲在長期記憶模塊中。

      該模型將這個內部誤差信號(梯度)當作數學上的等價物,比如說:「這是意外且重要!」這使得泰坦架構能夠選擇性地更新其長期記憶,只包含最新穎且破壞上下文的信息,從而保持整體流程的快速和高效。

      泰坦通過整合兩個關鍵要素來完善這一機制:


      1. 動量:模型同時考慮「瞬間驚訝」(當前輸入)和「過去驚訝」(近期上下文流)。這確保了后續相關信息也能被捕獲,即使這些Token本身并不令人意外。

      2. 遺忘(權重衰減):為了在處理極長序列時管理記憶有限容量,泰坦采用自適應權重衰減機制。這起到遺忘門的作用,允許模型丟棄不再需要的信息。

      MIRAS:序列建模的統一視角

      序列建模的每一項重大突破,從現代變換器到新的閃電高速線性RNN,本質上都是同一件事:一個高度復雜的聯想記憶模塊

      因此,MIRAS獨特且實用的,在于它對AI建模的看法。它不再看到多樣化的架構,而是看到解決同一問題的不同方法:高效地將新信息與舊記憶結合,同時不遺忘核心概念

      MIRAS通過四個關鍵設計選擇定義了序列模型:

      • 內存架構:存儲信息的結構(例如,矢量、矩陣或深度多層感知器,如泰坦中的結構)。

      • 注意力偏見:模型優化的內部學習目標,決定了其優先考慮的內容。

      • 保留門:內存規范器。MIRAS將「遺忘機制」重新解釋為一種特定的正則化形式,平衡新學習與保留過去知識。

      • 內存算法:用于更新內存的優化算法。


      這些新架構最顯著的優勢是能夠處理極長的上下文。

      這一點在BABILong基準測試中得到了體現,該任務需要在極長的文檔中對事實進行推理。

      在這一充滿挑戰的環境中,Titans的表現優于所有基線,包括像GPT-4這樣極其龐大的模型,盡管參數遠少于GPT-4。

      Titans進一步展示了能夠有效擴展到超過200萬個令牌的上下文窗口。


      Titans和MIRAS框架的引入標志著序列建模的重大進展。

      通過將深度神經網絡作為記憶模塊,在數據流入時學習記憶,這些方法克服了固定大小的循環狀態的局限。

      此外,MIRAS提供了強大的理論統一,揭示了在線優化、聯想記憶與架構設計之間的聯系。

      這項研究為新一代序列模型打開了大門,這些模型結合了RNN的高效與長上下文人工智能時代所需的表達能力。

      彩蛋

      分別向Gemini和GPT詢問了Gemini 3 Pro和Flash的參數大小。

      Gemini 3 Flash的回答:

      基于截至2025年12月的最新行業信息和技術分析,官方并未公開Gemini 3 Pro和Gemini 3 Flash的確切模型參數大小。這是谷歌自 Gemini 1.0以來的一貫策略,主要為了保護架構機密。

      不過,根據技術白皮書的推斷、行業泄露信息以及對其性能(Token 生成速度和顯存占用)的逆向分析,目前的主流估算(數量級)如下


      GPT 5.2的回答:


      總之,Pro和Flash這兩模型的參數數量級差了將近5~10倍(估算)。因此,Flash的使用體驗遠超預期,才會引起社區廣泛的討論。

      參考資料:

      https://research.google/blog/titans-miras-helping-ai-have-long-term-memory/

      https://x.com/bycloudai/status/2002347892535930934

      秒追ASI

      ?點贊、轉發、在看一鍵三連?

      點亮星標,鎖定新智元極速推送!

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      陜西黑老大鄭衛國去酒店吃飯,不料踢到鐵板,死前連中9槍寧死不跪

      陜西黑老大鄭衛國去酒店吃飯,不料踢到鐵板,死前連中9槍寧死不跪

      青青會講故事
      2024-11-01 16:45:36
      特朗普通告全球,全面戰爭或開打?中方已接到求援,事態還在惡化

      特朗普通告全球,全面戰爭或開打?中方已接到求援,事態還在惡化

      阿傖說事
      2025-12-23 14:12:24
      太棒了!這穿著你是一點都不遮掩,真是太讓人羨慕了

      太棒了!這穿著你是一點都不遮掩,真是太讓人羨慕了

      章眽八卦
      2025-11-29 11:58:56
      董宇輝3天賣了3個億,為什么?老板們要想清楚:市場能力已是關鍵

      董宇輝3天賣了3個億,為什么?老板們要想清楚:市場能力已是關鍵

      老方
      2025-10-19 09:20:11
      朱孝天嫉妒心藏不住了!公開嘲諷阿信“又老又丑”,評論區已淪陷

      朱孝天嫉妒心藏不住了!公開嘲諷阿信“又老又丑”,評論區已淪陷

      楓塵余往逝
      2025-12-20 20:24:53
      中日46條航線所有航班全部取消!準備旅日的香港同胞反而更多?高市早苗內外交困可能要黯然下臺!

      中日46條航線所有航班全部取消!準備旅日的香港同胞反而更多?高市早苗內外交困可能要黯然下臺!

      澳門月刊
      2025-12-22 15:35:47
      新豐田RAV4榮放要來了!外觀很“越野”,這才叫深度定制

      新豐田RAV4榮放要來了!外觀很“越野”,這才叫深度定制

      米粒說車唯一呀
      2025-12-23 14:29:20
      大量女主播深夜直播涉黃!快手攤上大事了

      大量女主播深夜直播涉黃!快手攤上大事了

      鳴金網
      2025-12-23 10:48:15
      深圳烤雞少年塌房!所謂秘方竟是“肉寶王”,評論區炸鍋

      深圳烤雞少年塌房!所謂秘方竟是“肉寶王”,評論區炸鍋

      胡嚴亂語
      2025-12-20 20:19:26
      笑死!原來這是全國老公統一副業,網友:太真實了

      笑死!原來這是全國老公統一副業,網友:太真實了

      另子維愛讀史
      2025-12-15 22:33:23
      在體制內最不該犯的錯誤, 一是醉駕, 二是玩女人, 三是賭博

      在體制內最不該犯的錯誤, 一是醉駕, 二是玩女人, 三是賭博

      細說職場
      2025-12-10 16:02:05
      片約不斷,演啥毀啥,央視《老舅》這倆戲混子,趁早收手吧

      片約不斷,演啥毀啥,央視《老舅》這倆戲混子,趁早收手吧

      查爾菲的筆記
      2025-12-18 16:03:46
      牛鬼蛇神現原形!高調力挺徐子堯僅1天,刀郎擔心的事還是發生了

      牛鬼蛇神現原形!高調力挺徐子堯僅1天,刀郎擔心的事還是發生了

      卷史
      2025-12-22 14:51:33
      郭德綱也沒想到,三位著名相聲演員去承德商演,賣19張票不夠車費

      郭德綱也沒想到,三位著名相聲演員去承德商演,賣19張票不夠車費

      小娛樂悠悠
      2025-12-22 11:57:15
      “姐姐為亡弟追兇27年”案一審宣判:被告人被判處死刑,緩期二年執行

      “姐姐為亡弟追兇27年”案一審宣判:被告人被判處死刑,緩期二年執行

      澎湃新聞
      2025-12-23 10:52:26
      “一家三口被發小殺害”案開庭,受害人家屬:想當庭問問他還有沒有一點情誼

      “一家三口被發小殺害”案開庭,受害人家屬:想當庭問問他還有沒有一點情誼

      上游新聞
      2025-12-23 11:01:22
      給的確實太多了!中亞五國被曝光已與日本達成“拋棄”中俄的協議

      給的確實太多了!中亞五國被曝光已與日本達成“拋棄”中俄的協議

      壹知眠羊
      2025-12-23 14:18:22
      張學良晚年吐真言:西安事變我只是名義上的,真正的主角是他!楊虎城后人上門,他為何閉口不談?

      張學良晚年吐真言:西安事變我只是名義上的,真正的主角是他!楊虎城后人上門,他為何閉口不談?

      歷史回憶室
      2025-12-16 14:26:14
      封關后,海南炸鍋了。有房子的外地人、當地土著都樂開了花!

      封關后,海南炸鍋了。有房子的外地人、當地土著都樂開了花!

      石辰搞笑日常
      2025-12-03 08:50:12
      閏土夫婦代Y兒子!紫菱給大佬當P友!

      閏土夫婦代Y兒子!紫菱給大佬當P友!

      八卦瘋叔
      2025-12-23 12:00:15
      2025-12-23 15:16:49
      新智元 incentive-icons
      新智元
      AI產業主平臺領航智能+時代
      14164文章數 66395關注度
      往期回顧 全部

      科技要聞

      慘烈90分鐘!快手驚魂:遭遇最強黑產攻擊

      頭條要聞

      熱力公司入戶測溫佩戴的記錄儀上印著警徽 住戶報警

      頭條要聞

      熱力公司入戶測溫佩戴的記錄儀上印著警徽 住戶報警

      體育要聞

      用冠軍致敬迭戈時代 ”超級“那不勒斯捧杯

      娛樂要聞

      阿信發聲報平安,曬演唱會向F3索吻畫面

      財經要聞

      直播間涉黃?快手:遭到黑灰產攻擊已報警

      汽車要聞

      四款新車集中發布 星途正式走進3.0時代

      態度原創

      本地
      時尚
      教育
      房產
      軍事航空

      本地新聞

      云游安徽|宣城何以動人心,百年塔影一城徽韻

      “復古知識分子風”正流行,這5件單品誰穿誰時髦!

      教育要聞

      女兒臥室里的東西,氣得我手抖,母親失控:她才上初中啊

      房產要聞

      獨家猛料!16.1億,浙江老板搶下雅居樂清水灣261畝重磅宅地!

      軍事要聞

      美烏代表:佛州會談"富有成效和建設性"

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 白嫩少妇激情无码| 波多野结衣av在线观看| 亚洲国产日韩欧美一区二区三区 | 精品亚洲AⅤ无码午夜在线| 亚洲人妻.com| 撕开奶罩揉吮奶头视频| 国产成人毛片在线视频| 欧美日韩人成综合在线播放| 草草浮力影视CCYYCOM| 亚洲人ⅴsaⅴ国产精品| 国产AV一区二区三区| 欧美BBBBBBSBBBBBB| 777精品成人a?v久久| 久久精品国产一区二区蜜芽| 亚洲国产色图| 最新99热| 人妻无码vs中文字幕久久av爆 | 国产欧美精品一区aⅴ影院| 五月丁香伊人| 十八岁以下禁止观看黄下载链接| 五月。。激情綜合老漢色| 成年入口无限观看免费完整大片| www.亚洲V| 亚洲 欧美 变态 另类 综合 | 亚洲国产成人久久综合| 91丝袜高潮流白浆潮喷在线观看| 亚洲精品久久久无码一区二区| 公安县| 国产激情视频一区二区三区| 亚洲人妻av伦理| 日韩AV高清无码| 别揉我奶头~嗯~啊~的视频| 上司人妻互换hd无码| 久久国产色av免费观看| 国产一区二区波多野结衣| 成人片黄网站a毛片免费| 色综合网址你懂的| www.18av| 国产亚洲欧美精品永久| 三级九九| 把插八插露脸对白内射|