Google上周扔了個炸彈。Gemma 4系列開源模型突然發(fā)布,最小的9B版本在跑分榜上把自家70B的老大哥按在地上摩擦。本地部署、消費級顯卡、無需聯(lián)網(wǎng)——這三個詞組合在一起,等于直接抄了OpenAI和Claude的后路。
開發(fā)者圈子的反應(yīng)很真實。有人在Hugging Face評論區(qū)寫道:「我筆記本上的9B比公司買的API調(diào)用還快,這賬怎么算?」
Google這次玩的是田忌賽馬。Gemma 4用了一種叫"知識蒸餾"的壓縮技術(shù),把大模型的能力塞進(jìn)小身板。9B版本單張RTX 4090就能跑,27B版本需要24G顯存,但性能已經(jīng)摸到Claude Sonnet的邊。最狠的是140B版本——官方說用四張H100就能全精度推理,而同樣參數(shù)量的Llama 3 405B需要十六張。
價格差是致命傷。GPT-4o的API調(diào)用成本大概是本地跑Gemma的50到100倍,取決于你的電費。對于每天處理百萬級token的中小團(tuán)隊,這筆賬不用算第二遍。
Google的算盤也很清楚。Gemma系列從來不靠模型本身賺錢,目標(biāo)是把你綁在Vertex AI的生態(tài)里。但開發(fā)者顯然有自己的想法——Hugging Face的下載量在發(fā)布后24小時內(nèi)破了十萬次,其中七成流向了最小的9B版本。
一個細(xì)節(jié):Gemma 4的許可協(xié)議里悄悄刪掉了"禁止用于軍事用途"的條款。Google沒解釋為什么,但企業(yè)客戶已經(jīng)開始問銷售要報價單了。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.