DoNews4月3日消息,今日,谷歌正式推出 Gemma 4 大模型,據稱是迄今為止谷歌最智能的開源模型。Gemma 4 專為高級推理與智能體工作流打造,實現了前所未有的“單位參數智能水平”。
![]()
本次谷歌推出四種規格的 Gemma 4 通用模型:高效 20 億參數版(E2B)、高效 40 億參數版(E4B)、260 億混合專家模型(MoE)與 310 億稠密模型(31B)。全系產品均超越簡單對話場景,可處理復雜邏輯與智能體工作流。
其中大參數量級模型在同規模下實現頂尖性能:31B 模型目前在行業標準 Arena AI 文本榜單中位列全球開源模型第三,26B 模型位居第六。Gemma 4 在榜單上的表現甚至超越了自身規模 20 倍的模型。對開發者而言,這種全新的單位參數智能水平意味著,只需更少的硬件開銷,即可實現前沿級 AI 能力。
![]()
在端側設備上,E2B 與 E4B 模型重新定義了本地部署價值:相比單純堆砌參數,更側重多模態能力、低延遲處理與生態無縫集成。
以下是 Gemma 4 模型系列的核心優勢:
高級推理:具備多步規劃與深度邏輯能力,在數學、指令執行等需要復雜推理的基準測試中實現顯著提升。
智能體工作流:原生支持函數調用、結構化 JSON 輸出與系統指令,可構建能對接各類工具、API 并可靠執行工作流的自主智能體。
代碼生成:支持高質量離線代碼生成,將工作站變為本地化 AI 編程助手。
視覺與音頻:全系模型原生支持視頻、圖像處理,兼容可變分辨率,在 OCR、圖表理解等視覺任務上表現出色;E2B 與 E4B 模型額外搭載原生音頻輸入能力,可實現語音識別與理解。
更長上下文:流暢處理長文本內容。端側模型上下文窗口達 128K,大模型最高支持 256K,可在單次提示中傳入代碼庫或長文檔。
140 + 種語言:基于超 140 種語言原生訓練,助力開發者為全球用戶打造包容、高性能的應用。
26B 與 31B 模型
為讓研究者與開發者在通用硬件上實現頂尖推理能力而優化,非量化 bfloat16 權重可高效適配單張 80GB 英偉達 H100 GPU;本地部署場景下,量化版本可直接在消費級 GPU 上運行,支撐集成開發環境、編程助手與智能體工作流。
![]()
26B 混合專家模型(MoE)側重低延遲,推理時僅激活總參數中的 38 億,實現極快的令牌生成速度;31B 稠密模型則最大化原始性能,為微調提供強大基礎。
E2B 與 E4B 模型
從底層設計便追求極致算力與內存效率,推理時實際占用參數分別為 20 億與 40 億,節省內存與設備電量。與谷歌 Pixel 團隊、高通、聯發科等移動硬件廠商深度合作,讓這些多模態模型可在手機、樹莓派、英偉達 Jetson Orin Nano 等端側設備上完全離線、近零延遲運行。安卓開發者現已可在 AICore 開發者預覽版中搭建智能體流程,實現與 Gemini Nano 4 的向前兼容。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.