![]()
Google 又發(fā)新模型了。
![]()
但這次,重點(diǎn)可能不只是“模型更強(qiáng)了”,而是Google 終于開始認(rèn)真回答一個(gè)更關(guān)鍵的問題:開發(fā)者為什么要在它的開放生態(tài)里構(gòu)建下一代 AI 應(yīng)用。4 月 3 日,Google 發(fā)布 Gemma 4,官方把它定義為“迄今最智能的開放模型家族”,主打 advanced reasoning、agentic workflows,以及從手機(jī)到工作站都能部署的本地運(yùn)行能力。更關(guān)鍵的是,這一代 Gemma 4 改用了Apache 2.0許可。
這意味著,Gemma 4 不是一次普通的參數(shù)升級(jí),而更像是 Google 對(duì)“開放模型”路線的一次重新表態(tài)。過去兩年,Google 在閉源旗艦?zāi)P?Gemini 上一路猛沖,但在開放模型這條線里,Gemma 雖然一直有不錯(cuò)關(guān)注度,卻總被開發(fā)者吐槽“模型能用,條款不好用”。而這次,Google 明顯想把這件事掰回來。
![]()
圖:Google 官方博客展示的 Gemma 4 排行表現(xiàn)先看產(chǎn)品本身:Gemma 4 到底發(fā)了什么
官方這次一口氣放出了 4 個(gè)型號(hào):E2B、E4B、26B A4B 和 31B Dense。其中 E2B 和 E4B 面向更輕量的端側(cè)和本地設(shè)備,26B A4B 是 Mixture-of-Experts 架構(gòu),31B Dense 則是這次家族里的高性能主力。Google 說,Gemma 自 2024 年首發(fā)以來累計(jì)下載已經(jīng)超過4 億次,社區(qū)衍生版本超過10 萬個(gè),這次 Gemma 4 則是在這個(gè)基礎(chǔ)上繼續(xù)往上抬一檔。
從能力定義上看,Gemma 4 并不是只想做“更會(huì)聊天的小模型”。官方給它的關(guān)鍵詞是:推理、代碼、工具調(diào)用、長(zhǎng)上下文、多模態(tài)和 agent 工作流。Gemma 4 支持文本和圖像輸入,小尺寸的 E2B 和 E4B 還支持音頻輸入;上下文長(zhǎng)度方面,小模型是128K,26B A4B 和 31B 則上到256K。Google 還特別強(qiáng)調(diào)它對(duì)function calling、structured tool use、system instructions的原生支持,明顯是在朝“本地 agent 基礎(chǔ)模型”這個(gè)方向設(shè)計(jì)。
如果只看參數(shù),Gemma 4 也許不會(huì)給人那種“又一個(gè)超大模型”的壓迫感,但 Google 這次講得最多的其實(shí)是intelligence-per-parameter。換句話說,它想賣的不是“我有多大”,而是“我在這個(gè)體積下有多強(qiáng)”。官方 benchmark 里,31B Dense 在 MMLU Pro 上達(dá)到85.2%,AIME 2026 no tools89.2%,LiveCodeBench v680.0%;26B A4B 也分別做到82.6%、88.3%、77.1%。至少?gòu)?Google 自己公布的指標(biāo)看,它確實(shí)想把 Gemma 4 放在“同尺寸開放模型里盡量打滿性能”的位置。
![]()
這次真正的變化,不在參數(shù),而在許可證
Google 官方明確寫了,Gemma 4 是 Gemmaverse 里第一批采用OSI 認(rèn)可的 Apache 2.0許可的模型。Google Open Source Blog 甚至專門發(fā)文解釋:這一變化的目標(biāo)是給開發(fā)者更清晰的修改、復(fù)用和再開發(fā)權(quán)利,讓大家不用再面對(duì)一套“看起來開放,但法律上不夠標(biāo)準(zhǔn)化”的專屬條款。
![]()
為什么這件事重要?因?yàn)檫^去的 Gemma 條款,問題不在“不能用”,而在“用起來心里沒底”。舊版 Gemma Terms 里,對(duì)Model Derivatives的定義非常寬,不只包括對(duì) Gemma 的直接修改,還包括通過權(quán)重、參數(shù)、操作乃至 Gemma 輸出遷移模式而構(gòu)建出來、表現(xiàn)得“像 Gemma”的模型,連基于 Gemma 生成的合成數(shù)據(jù)去訓(xùn)練別的模型,都可能被卷進(jìn)去。對(duì)于很多公司法務(wù)和商業(yè)團(tuán)隊(duì)來說,這種定義天然會(huì)提高采用成本。
The Verge 對(duì)這件事的概括很直接:之前幾代 Gemma 用的是定制許可,而且一直被批評(píng)過于 restrictive;Gemma 4 換成 Apache 2.0,才算真正進(jìn)入開發(fā)者更熟悉、也更容易被企業(yè)流程接受的許可體系。Google 這次不是只把模型發(fā)出來,而是在補(bǔ)過去一直沒補(bǔ)好的“最后一公里”——讓開發(fā)者敢真用、敢商用、敢繼續(xù)往下做衍生生態(tài)。
Google 想要的,也不只是“開放”,而是“本地化”
Google這次在三個(gè)官方博客里反復(fù)強(qiáng)調(diào)同一件事:Gemma 4 是給本地跑、給設(shè)備跑、給 agent 跑的。官方博客寫得很清楚,Gemma 4 是“你可以跑在自己硬件上的最強(qiáng)模型家族”;開發(fā)者博客則進(jìn)一步把它包裝成 on-device AI development 的工具箱,直接說有了 Gemma 4,開發(fā)者可以在本地設(shè)備上做 multi-step planning、autonomous action、offline code generation,甚至音視頻處理。
26B A4B總參數(shù)是25.2B,但推理時(shí)實(shí)際只激活3.8B參數(shù)。Google 甚至在 model card 里直接解釋:這就是為什么它會(huì)比名義上的 26B 看起來更“輕”,推理速度也更接近一個(gè) 4B 級(jí)別模型。對(duì)于想在本地跑 agent、做工具調(diào)用、追求低延遲的開發(fā)者來說,這種設(shè)計(jì)比單純把參數(shù)堆大更有現(xiàn)實(shí)意義。
Google 甚至已經(jīng)把這條路延伸到了 Android。Android Developers Blog 寫得非常明確:Gemma 4 是下一代 Gemini Nano 4 的基礎(chǔ)模型,而后者會(huì)針對(duì) Android 設(shè)備進(jìn)一步優(yōu)化,官方稱其性能可達(dá)到上代的4 倍,電池消耗最多降低60%。同時(shí),Google 還推出了 AICore Developer Preview,讓開發(fā)者可以直接在支持的設(shè)備上預(yù)覽和原型化 Gemma 4 E2B/E4B。Google 想把模型、系統(tǒng)、端側(cè)硬件和開發(fā)工具重新打包成一整套自己的本地 AI 平臺(tái)。
![]()
這不是 Gemini 的“平替”,而是 Google 的生態(tài)補(bǔ)位
很多人看到 Gemma,會(huì)下意識(shí)把它理解成“Gemini 的開源版”。但從這次發(fā)布節(jié)奏看,Gemma 4 更像是 Google 在做另一件事:把 Gemini 體系里的研究和能力,拆成開發(fā)者能本地拿走、自己調(diào)、自己部署的一條產(chǎn)品線。官方博客就寫得很直白:Gemma 4 和 Gemini 是互補(bǔ)關(guān)系,前者給開發(fā)者開放模型和本地部署的空間,后者則繼續(xù)作為 Google 的閉源旗艦?zāi)芰Υ嬖凇?/p>
過去一年多,真正把開發(fā)者生態(tài)卷起來的,不只是最大的閉源模型,而是那些能被拿去直接改、直接跑、直接集成進(jìn)應(yīng)用和 agent 框架的模型。Google 如果只守著 Gemini API,本質(zhì)上只能拿到“調(diào)用層”的開發(fā)者;但 Gemma 4 這種更標(biāo)準(zhǔn)、更寬松的許可,加上對(duì)本地和端側(cè)的強(qiáng)調(diào),Google 才有機(jī)會(huì)把開發(fā)者重新吸回到自己的工具鏈里——從 Hugging Face、Kaggle、Ollama、vLLM、llama.cpp 到 Android AICore,再到最后的 Google Cloud 和 Vertex AI。
Gemma 4 不只是一次模型迭代,更像是一場(chǎng)遲來的開放生態(tài)修正。它當(dāng)然仍然不是那種"把訓(xùn)練數(shù)據(jù)、訓(xùn)練流程、完整 pipeline 全部公開"的徹底開源敘事,但在許可、部署范圍和開發(fā)者友好度上,Google 的確向前邁了一大步。
Gemma 4 的關(guān)鍵,不是它是不是世界最強(qiáng)開放模型。更關(guān)鍵的是,Google 終于開始認(rèn)真回答:為什么開發(fā)者要在 Google 的開放生態(tài)里,構(gòu)建下一代 AI 應(yīng)用。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.