2026 年 4 月 2 日,谷歌 DeepMind 發(fā)布了 Gemma 4 系列模型[1]。
模型有四個(gè)規(guī)格——E2B、E4B、26B MoE、31B Dense——覆蓋了從樹莓派到單卡 H100 的全硬件區(qū)間,31B 在 Arena 開源榜沖到第三,26B MoE 只激活 38 億參數(shù)就打出了同級(jí) Dense 模型的效果。
![]()
但這些數(shù)字都不是當(dāng)天最熱的議題。
讓 Reddit r/LocalLLaMA 板塊在發(fā)布后幾小時(shí)內(nèi)涌出數(shù)十個(gè)討論帖的,是另外一件事:Gemma 4 全系采用 Apache 2.0 協(xié)議,徹底告別了前三代飽受詬病的“Gemma 自定義許可證”。
開發(fā)者們的反應(yīng)很直白——“終于可以放心用了”。有人當(dāng)即跑通了樹莓派 5 的本地部署,有人在 6 小時(shí)內(nèi)放出了 GGUF 量化版,還有人做了與 Qwen 3.5 的橫向跑分。Hugging Face 官方博客的歡迎文章在一天內(nèi)收獲 223 個(gè)贊,評(píng)論區(qū)從 K12 教育到自動(dòng)駕駛,各種應(yīng)用場(chǎng)景已經(jīng)開始討論。
這一切熱情,與其說(shuō)是因?yàn)槟P捅旧碛卸鄰?qiáng),不如說(shuō)是因?yàn)楣雀杞K于打開了那把鎖。
那行“勸退”的許可證
要理解社區(qū)為什么這么激動(dòng),得先看看 Gemma 系列此前的許可證到底有多“勸退”。
Gemma 1 于 2024 年 2 月發(fā)布,是谷歌對(duì) Meta 開源攻勢(shì)的防御性回應(yīng)。模型本身的參數(shù)效率和性能在當(dāng)時(shí)頗有競(jìng)爭(zhēng)力,但開發(fā)者很快發(fā)現(xiàn)了一個(gè)問(wèn)題:許可證不對(duì)勁。
Gemma 自定義許可證包含幾個(gè)讓企業(yè)和開發(fā)者望而卻步的條款:
第一,谷歌可以單方面修改規(guī)則。協(xié)議明確保留谷歌隨時(shí)更新條款的權(quán)利,這意味著今天合規(guī)的用法,明天可能突然違規(guī)。對(duì)于需要長(zhǎng)期規(guī)劃的企業(yè)級(jí)項(xiàng)目來(lái)說(shuō),這是一個(gè)無(wú)法接受的法律不確定性。 第二,下游衍生的邊界模糊。如果開發(fā)者用 Gemma 生成合成數(shù)據(jù),再用這些數(shù)據(jù)訓(xùn)練其他模型,新模型是否仍然受 Gemma 原始協(xié)議約束?協(xié)議沒有給出清晰答案。對(duì)于有法務(wù)審查需求的企業(yè)來(lái)說(shuō),模糊等于否定。 第三,與“開源”的定義存在本質(zhì)矛盾。開源促進(jìn)會(huì)(OSI)對(duì)“開源”的定義要求許可證不可撤銷、不歧視特定人群或用途。Gemma 許可證要求用戶接受谷歌的服務(wù)條款,并限制了部分使用場(chǎng)景——開發(fā)者們對(duì)它的“開源”打引號(hào),不是沒有道理。
結(jié)果是,在 Hugging Face 上,Gemma 系列的衍生 fine-tune 數(shù)量始終落后于 Llama 和 Qwen,不是模型不夠好,是沒人敢往自己的產(chǎn)品里放。VentureBeat[2] 在報(bào)道 Gemma 4 時(shí)引用了一位開發(fā)者的總結(jié):“性能決定你能不能用,許可證決定你敢不敢用。”這句話精準(zhǔn)地概括了 Gemma 前三代的困境。
Apache 2.0:不只是換了一行字
谷歌這次切換 Gemma 許可證的戰(zhàn)略意義,可能比模型本身的性能提升更大。
對(duì)個(gè)人開發(fā)者,Apache 2.0 意味著可以自由修改、打包進(jìn)商業(yè)產(chǎn)品、不必?fù)?dān)心某天收到谷歌法務(wù)部的通知。這是開源社區(qū)最熟悉的許可證之一——Android、TensorFlow、Kubernetes 都用的它。
對(duì)企業(yè)法務(wù),Apache 2.0 的合規(guī)審查路徑非常清晰。VentureBeat 報(bào)道中直言:Gemma 3 時(shí)代,許多企業(yè)的合規(guī)團(tuán)隊(duì)直接把 Gemma 從候選名單劃掉,不是因?yàn)槟P筒粔蚝茫且驗(yàn)椤奥蓭熆床欢远x許可證的風(fēng)險(xiǎn)在哪里”。
對(duì)開源生態(tài)的格局,這次切換有更微妙的含義。VentureBeat 的分析指出了一個(gè)關(guān)鍵時(shí)機(jī):當(dāng)阿里 Qwen 系列開始對(duì)最新模型收回完全開放的策略時(shí),谷歌卻反其道而行之。Qwen 此前部分版本采用 Apache 2.0,但最近的旗艦?zāi)P娃D(zhuǎn)向了更保守的自定義許可。Meta 的 Llama 系列至今堅(jiān)持自定義的“Llama Community License”。
在這個(gè)時(shí)間點(diǎn),谷歌選擇把許可證“降級(jí)”到最寬松的標(biāo)準(zhǔn)協(xié)議之一,實(shí)際上是把許可證本身變成了一種競(jìng)爭(zhēng)武器——你不是嫌我限制多嗎?那我現(xiàn)在比 Mistral 還開放,你來(lái)試試。
![]()
Hugging Face 博客[3]的措辭也很有暗示性:“These models are the real deal: truly open with Apache 2 licenses”。加了“truly”這個(gè)詞,你細(xì)品。
社區(qū)的第一天
發(fā)布后 24 小時(shí)內(nèi),社區(qū)的反應(yīng)比模型參數(shù)本身更能說(shuō)明問(wèn)題。
樹莓派實(shí)測(cè)帖成為 r/LocalLLaMA 當(dāng)天 upvote 最高的帖子之一,E2B 量化版跑通樹莓派 5 的視頻被廣泛轉(zhuǎn)發(fā)——這對(duì)于邊緣計(jì)算和 IoT 開發(fā)者來(lái)說(shuō)是一個(gè)信號(hào):從此類設(shè)備上運(yùn)行高質(zhì)量多模態(tài) AI 不再需要等待。
量化版本在 6 小時(shí)內(nèi)出現(xiàn),GGUF 格式,多種精度可選,從 Q2 到 Q8 一應(yīng)俱全。社區(qū)工具鏈的響應(yīng)速度說(shuō)明一件事:開發(fā)者們其實(shí)早就準(zhǔn)備好了,只是之前被許可證攔在門外。
甚至還有用戶發(fā)布了移除安全過(guò)濾的“去審查”版本,稱可以實(shí)現(xiàn)“零拒絕回答”。這個(gè)現(xiàn)象本身折射出一個(gè)此前被廣泛討論的問(wèn)題:Gemma 系列的安全過(guò)濾在某些場(chǎng)景下被認(rèn)為過(guò)度保守,尤其是在非英語(yǔ)語(yǔ)言和學(xué)術(shù)討論中。Apache 2.0 許可證使得這類修改變得完全合法——這是自定義許可證下無(wú)法實(shí)現(xiàn)的事情。
當(dāng)然,技術(shù)問(wèn)題也不是沒有,除了 Simon Willison 遇到的 31B 本地加載問(wèn)題外,部分用戶報(bào)告了內(nèi)存錯(cuò)誤和 Jinja 模板解析失敗等部署障礙。ZDNet 的報(bào)道標(biāo)題直接點(diǎn)出:“fully open-source”這個(gè)定性本身就是最大的新聞。
兩年后回頭看
Gemma 1 發(fā)布于 2024 年 2 月。彼時(shí)開源大模型競(jìng)爭(zhēng)剛剛升溫,Meta 的 Llama 系列已經(jīng)建立了先發(fā)優(yōu)勢(shì),Mistral 憑借 Apache 2.0 協(xié)議也迅速贏得一席之地。Gemma 作為后來(lái)者,模型性能并不差,但自定義許可證成了硬傷。
兩年過(guò)去,Gemma 在 Hugging Face 的衍生模型數(shù)量上始終沒有追上 Llama 和 Qwen。許可問(wèn)題是被開發(fā)者引用最多的原因——這或許不是唯一的原因,但絕對(duì)是最容易說(shuō)出口的原因。
現(xiàn)在谷歌做了一個(gè)它本該在 Gemma 1 就做的決定,來(lái)得晚了嗎?也許,但時(shí)機(jī)也有微妙的優(yōu)勢(shì):開源 AI 模型正進(jìn)入一個(gè)從「比參數(shù)」到「比生態(tài)」的階段。模型之間的性能差距在縮小,而許可證合規(guī)性、社區(qū)活躍度、部署便利性、Harness[4] 配套等這些“基礎(chǔ)設(shè)施”層面的因素,正在成為選擇的決定性考量。
Gemma 4 不一定能在 Arena 開源模型榜上穩(wěn)壓 GLM-5 或 Qwen-3.5,但如果 Apache 2.0 能讓它的衍生生態(tài)在接下來(lái)六個(gè)月內(nèi)出現(xiàn)爆發(fā)式增長(zhǎng)——就像 Mistral 在 2024 年經(jīng)歷的那樣——那么這次許可證切換的歷史意義,可能遠(yuǎn)大于任何基準(zhǔn)測(cè)試上的分?jǐn)?shù)提升。
谷歌在官方博客中稱這個(gè)愿景為“Gemmaverse”,聽起來(lái)像營(yíng)銷話術(shù),但也不妨這么理解:在開源 AI 的游戲里,比模型更強(qiáng)的是生態(tài),比生態(tài)更強(qiáng)的是信任。Apache 2.0 是建立信任的第一步。
至于這一步來(lái)得是不是太晚了,答案就在未來(lái)這幾個(gè)月。
One more thing
實(shí)際上,開放源代碼促進(jìn)會(huì)(Open Source Initiative,OSI)在 2024 年發(fā)布了“開源 AI 定義”[5],該定義規(guī)定真正開源的 AI 大模型必須提供訓(xùn)練數(shù)據(jù)的詳細(xì)信息、完整的構(gòu)建和運(yùn)行 AI 的代碼以及訓(xùn)練時(shí)的設(shè)置和權(quán)重。即模型權(quán)重(weights)、訓(xùn)練數(shù)據(jù)集(dataset)、訓(xùn)練代碼(training pipeline)三要素,這也是很多研究者心中的“完全可復(fù)現(xiàn)開源(reproducible AI)”標(biāo)準(zhǔn)。
![]()
但現(xiàn)實(shí)是,目前市面上仍沒有任何一家主流開源 AI 模型符合這個(gè)標(biāo)準(zhǔn),畢竟對(duì)于商業(yè)公司來(lái)說(shuō),高質(zhì)量的數(shù)據(jù)集屬于企業(yè)的核心資產(chǎn)之一,同時(shí)面臨安全/合規(guī)、版權(quán)歸屬等現(xiàn)實(shí)問(wèn)題,通常不可能完全開源。
所以即便是采用 Apache 2.0 協(xié)議的 AI 模型,在法律意義上是開源模型,在技術(shù)復(fù)現(xiàn)意義上仍不算是“完全開源 AI”。但不可否認(rèn)的是,采用 Apache 2.0 協(xié)議的 Gemma 4 已經(jīng)算是目前開放程度最高的主流 AI 模型之一了。
- 谷歌 DeepMind 發(fā)布了 Gemma 4 系列模型: https://www.oschina.net/news/417088/gemma-4
- VentureBeat: http://venturebeat.com/ai/google-releases-gemma-4-under-apache-2-0-and-that-license-change-may-matter/
- Hugging Face 博客: http://huggingface.co/blog/gemma4
- Harness: https://my.oschina.net/u/4487475/blog/19431001
- “開源 AI 定義”: https://www.oschina.net/news/318171/osi-ai-definition-1-0
- http://arstechnica.com/ai/2026/04/google-announces-gemma-4-open-ai-models-switches-to-apache-2-0-license/
- http://simonwillison.net/2026/Apr/2/gemma-4/
- http://deepmind.google/models/gemma/gemma-4
- http://opensource.googleblog.com/2026/03/gemma-4-expanding-the-gemmaverse-with-apache-20.html
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.