當(dāng)?shù)貢r(shí)間 4 月 2 日,谷歌 DeepMind 正式發(fā)布 Gemma 4,這是一個(gè)全新的開(kāi)放權(quán)重模型系列。谷歌還做出了一個(gè)關(guān)鍵決定:采用 Apache 2.0 許可證,徹底放棄了之前備受爭(zhēng)議的限制性條款。作為外部人士的 Hugging Face 聯(lián)合創(chuàng)始人兼 CEO Clément Delangue 評(píng)價(jià)稱(chēng):“Gemma 4 以 Apache 2.0 許可證發(fā)布是一個(gè)重要的里程碑。”
這意味著企業(yè)可以自由部署、修改和商用,不用擔(dān)心谷歌哪天改規(guī)則。在谷歌迄今為止所有的模型中,Gemma 4 是目前最強(qiáng)大的開(kāi)放權(quán)重模型系列,繼承了前沿多模態(tài)、長(zhǎng)上下文和高級(jí)推理能力,被谷歌官方稱(chēng)之為是“在逐字節(jié)比較下性能最強(qiáng)的”開(kāi)放模型(Byte for byte, the most capable open models),填補(bǔ)了本地前沿智能的空白,與追求極致性能的 Gemini 云端模型共同構(gòu)成了完整生態(tài)。
![]()
(來(lái)源:谷歌)
Gemma 4 一口氣發(fā)布了四個(gè)版本,覆蓋了從手機(jī)到工作站的全部場(chǎng)景。
工作站這邊有兩個(gè)大模型:一個(gè)是 310 億參數(shù)的稠密模型,追求最高輸出質(zhì)量;另一個(gè)是 260 億參數(shù)的混合專(zhuān)家模型,它里面有 128 個(gè)小型專(zhuān)家,每次推理只激活其中一小部分,實(shí)際只跑 38 億參數(shù),跑起來(lái)時(shí)速度更快,適合對(duì)于速度要求較高的場(chǎng)景。兩個(gè)大模型都支持圖像輸入,上下文窗口達(dá)到 25.6 萬(wàn) tokens,可以一次性處理一整份長(zhǎng)文檔或一個(gè)代碼倉(cāng)庫(kù)。
邊緣設(shè)備這邊有兩個(gè)小模型,叫 E2B 和 E4B。E2B 實(shí)際上有 51 億參數(shù),但是通過(guò)一種叫做每層嵌入的技術(shù),在運(yùn)行時(shí)只發(fā)揮 23 億參數(shù)的計(jì)算量,效率和速度跟小模型一樣,但其智能水平遠(yuǎn)超同尺寸模型;E4B 同理,80 億參數(shù)能夠跑出 45 億參數(shù)的效果。這兩個(gè)小模型還特別增加了音頻輸入能力,可以直接做語(yǔ)音識(shí)別和翻譯,全部在設(shè)備本地運(yùn)行,不需要聯(lián)網(wǎng)。
![]()
(來(lái)源:谷歌)
所有四個(gè)模型都原生支持函數(shù)調(diào)用和結(jié)構(gòu)化輸出。這意味著開(kāi)發(fā)者可以讓模型自己決定調(diào)用哪個(gè) API、執(zhí)行哪個(gè)工具,非常適合搭建那些能夠自動(dòng)完成任務(wù)的智能體。Gemma 4 的代碼生成能力也很強(qiáng),把模型裝在自己的電腦上,它就能變成一個(gè)本地化的 AI 編程助手,不需要把代碼傳到云端,兼具速度和安全。
在視覺(jué)能力上,Gemma 4 比上一代有著明顯進(jìn)步。它支持可變分辨率的圖像輸入,你可以根據(jù)任務(wù)需求來(lái)調(diào)整圖像到底要被切分為多少個(gè)小塊,塊數(shù)從 70 到 1120 個(gè)不等。做簡(jiǎn)單分類(lèi)任務(wù)的話,使用小塊就夠了;做 OCR 識(shí)別或者文檔解析,就可以使用大塊。它還支持多圖輸入和視頻輸入,可以一次性分析多張截圖,也能分析一整個(gè)視頻的幀序列。
谷歌還公布了詳細(xì)的跑分?jǐn)?shù)據(jù)。310 億參數(shù)的稠密模型在 AIME 2026 數(shù)學(xué)測(cè)試中得分 89.2%,在 LiveCodeBench 編程測(cè)試中得分 80.0%,在 Codeforces ELO 算法競(jìng)賽編程測(cè)試達(dá)到了 2150 分。
混合專(zhuān)家模型緊隨其后,分別拿下 88.3% 和 77.1%。這兩個(gè)分?jǐn)?shù)放在幾年前已經(jīng)是閉源頂級(jí)模型的水平。邊緣小模型也不遑讓?zhuān)珽4B 在同樣的測(cè)試中拿到了 42.5% 和 52.0%,比上一代 270 億參數(shù)的 Gemma 3 還強(qiáng)。有網(wǎng)友給出了“這么小,這么牛”的評(píng)價(jià)。
![]()
(來(lái)源:谷歌)
這次許可證的變更可能是 Gemma 4 最重要的決策。之前的 Gemma 模型雖然性能不錯(cuò),但用的是谷歌自己的許可證,里面有使用限制,條款還可以隨時(shí)修改。很多大公司用戶(hù)在法律審查這一步就被卡住了。
Apache 2.0 是開(kāi)源社區(qū)最常用的許可證之一,安卓系統(tǒng)用的就是它,阿里的 Qwen、法國(guó)的 Mistral 也都用這個(gè)。現(xiàn)在谷歌終于跟上,這讓企業(yè)可以放心地微調(diào)模型,然后把微調(diào)后的模型拿去商用,不用擔(dān)心法律風(fēng)險(xiǎn)。谷歌對(duì)此表示:“(這是因?yàn)椋┪覀冋J(rèn)真傾聽(tīng)了創(chuàng)新者的需求。”
谷歌還強(qiáng)調(diào),Gemma 4 與 Gemini 系列共享同一條技術(shù)生產(chǎn)線。換言之,谷歌把最前沿的模型研究成果,以開(kāi)放權(quán)重的方式交給了開(kāi)發(fā)者。
你可以把模型下載到自己的電腦上,只需使用消費(fèi)級(jí)顯卡就能跑起來(lái),數(shù)據(jù)全程在本地處理。260 億的混合專(zhuān)家模型經(jīng)過(guò) 4 位量化后,可以裝進(jìn)一張 24GB 的顯卡里,使用 llama.cpp 或 Ollama 這類(lèi)工具就能跑。310 億的稠密模型未量化版本需要一張 80GB 的 H100,但量化后也能在消費(fèi)級(jí)顯卡上運(yùn)行。
谷歌還同步推出了量化感知訓(xùn)練檢查點(diǎn),確保模型在降低精度后依然能夠保持高質(zhì)量。目前,模型已經(jīng)在 Hugging Face、Kaggle、Ollama 等平臺(tái)上線,vLLM、SGLang、llama.cpp 等主流推理框架已經(jīng)提供支持。
在業(yè)界合作上,谷歌已經(jīng)和高通以及聯(lián)發(fā)科合作,針對(duì)小模型做了硬件級(jí)優(yōu)化,確保在手機(jī)上跑得又快又省電。安卓開(kāi)發(fā)者現(xiàn)在就可以在 AICore 開(kāi)發(fā)者預(yù)覽版里試用 Gemma 4 的智能體工作流,未來(lái)將和 Gemini Nano 4 無(wú)縫兼容。
回顧 Gemma 系列的發(fā)展歷程,從 Gemma 1 到 Gemma 3,開(kāi)發(fā)者下載量超過(guò) 4 億次,社區(qū)衍生出 10 萬(wàn)多個(gè)變種。而 Gemma 4 的目標(biāo)很明確,那就是讓開(kāi)發(fā)者在自己的硬件上就能跑出接近前沿閉源模型的智能水平,把選擇權(quán)完全交還給了開(kāi)發(fā)者。
參考資料:
https://ai.google.dev/gemma/terms
https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
https://www.theregister.com/2026/04/02/googles_gemma_4_open_weights/
https://www.theverge.com/ai-artificial-intelligence/906062/googles-gemma-4-open-ai-model
https://venturebeat.com/technology/google-releases-gemma-4-under-apache-2-0-and-that-license-change-may-matter
排版:胡巍巍
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.