這幾天,AI圈又炸了。
不是DeepSeek又出了什么新模型,也不是OpenAI又搞了什么幺蛾子。
是英偉達。
那個賣顯卡的英偉達。
![]()
3月12日,連線雜志爆出一個消息:英偉達宣布未來5年,要砸260億美元,開發開源AI大模型。
260億美元。
我算了一下,約合1788億人民幣。
什么概念?
OpenAI訓練GPT-4,花了大概30億美元。
英偉達這一把,差不多能訓練8個GPT-4。
這哥們是認真的。
從賣鏟子的,變成挖金礦的
![]()
英偉達以前是干嘛的?
賣顯卡的。
AI火了,大家都去挖金礦,英偉達在旁邊賣鏟子。
一把鏟子賣幾萬美金,賺得盆滿缽滿。
但現在,賣鏟子的,也要親自下場挖礦了。
連線雜志的解讀很直接:英偉達正在從一家芯片制造商,演變為能夠與OpenAI、DeepSeek全面抗衡的頂尖AI前沿實驗室。
這話什么意思?
以前英偉達是給AI公司提供武器的。
現在它要自己造武器,自己上戰場。
為什么是現在?
![]()
這個問題,我也想了很久。
英偉達不是活得好好的嗎?顯卡賣瘋了,市值上天了,為什么要自己下場搞模型?
答案可能藏在行業現狀里。
你看現在的AI圈:
OpenAI、Anthropic、谷歌,核心模型全是閉源的。你想用?只能云端調用,數據得交給他們。
Meta的Llama系列雖然開源,但扎克伯格最近暗示,未來可能收緊開源策略。
企業需要什么?
需要透明的、可定制的、能自己部署的模型。
而DeepSeek、阿里這些中國公司,恰恰抓住了這個痛點,免費開源,吸引了全球大量開發者。
英偉達看得很清楚。
英偉達應用深度學習研究副總裁Bryan Catanzaro說了一句話:推動開源生態發展,完全符合英偉達的核心利益。
翻譯一下:
既然大家都要開源模型,那不如我自己來做。
反正我有算力,有硬件,有人才。
而且,自己做模型,還能把自家的顯卡優化到極致。
一舉兩得。
260億,砸向哪里?
這筆錢,不是隨便撒的。
覆蓋四個方向:
模型開發、算力基礎設施、研究人才、生態系統建設。
首批模型預計2026年底或2027年初問世。
而且,英偉達已經悄悄干了一件事。
一個5500億參數的超大模型,預訓練已經完成了。
什么概念?
GPT-4的參數量大概是1.8萬億。
5500億,雖然沒GPT-4大,但也已經是頂級大模型的體量了。
英偉達不是在畫餅,是真的在干活。
開放權重,中間道路
英偉達選了一條很有意思的路。
不是完全開源,也不是完全閉源。
是"開放權重"。
什么意思?
把模型的參數權重公開,讓開發者可以下載、運行、微調。
但不一定采用完全開源的許可協議。
這招很聰明。
既不像OpenAI那樣封閉,讓企業不放心。
也不像Meta那樣完全開源,把核心技術拱手讓人。
金融分析師預測,如果英偉達能拿下基礎模型市場10%的份額,三年內每年能增收500億美元。
260億換500億。
這生意,劃算。
AI圈的"北京折疊"
說到這兒,我突然想起一個詞:信息折疊。
以前,AI技術掌握在少數幾家巨頭手里。
普通人想用,只能交錢、交數據、交隱私。
信息差,就是護城河。
但現在,這個護城河正在被填平。
DeepSeek開源了,阿里開源了,現在英偉達也要開源了。
技術的門檻,正在一點點降低。
當然,不是所有人都能從中受益。
那些不懂技術、不會部署、沒有算力的人,依然被擋在門外。
但至少,門縫打開了。
愿意學習的人,可以擠進去。
英偉達這260億,砸下去的不僅僅是錢。
是一個信號。
AI的競爭,已經從"誰的模型更強",變成了"誰能把模型給更多人用"。
開源,不再是慈善,而是戰略。
英偉達應用深度學習研究副總裁Bryan Catanzaro說,這些前沿模型不僅是為了測試算力,更是為了對存儲、網絡及超算級數據中心進行極限壓力測試。
翻譯成人話:
做模型,是為了更好地做硬件。
做硬件,是為了更好地做模型。
這是一個飛輪。
轉起來,就停不下來了。
AI的童年時代,已經結束。
歡迎來到,AI的青年時代。
如果你對OpenClaw的實踐感興趣,可以掃描下方二維碼入群,
一起探討OpenClaw在各行各業的應用場景
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.