「我們的芯片業(yè)務(wù)火熱。」
這句話(huà)既不是出自英偉達(dá)、英特爾,也不是谷歌、微軟,而是亞馬遜CEO安迪·杰西最新股東信里的原話(huà)。
他還補(bǔ)了一句:Trainium芯片的需求正在爆發(fā)。
這話(huà)聽(tīng)著有點(diǎn)陌生。過(guò)去一段時(shí)間,你聽(tīng)到的亞馬遜大概是另一個(gè)版本——裁員、自由現(xiàn)金流被AI基建吞掉、AWS增速被質(zhì)疑,和甲骨文一起被劃進(jìn)「AI包工頭」那一撥。
在很多人印象里,亞馬遜根本不算站在AI潮頭的公司。模型這邊,OpenAI有ChatGPT,Anthropic有Claude,谷歌有Gemini。如果我問(wèn)你亞馬遜最強(qiáng)的模型叫什么,很多人可能得先搜一下。
但在大家沒(méi)怎么注意的地方,亞馬遜其實(shí)已經(jīng)暗度陳倉(cāng)了。
股東信里寫(xiě)到,AWS的AI業(yè)務(wù)年化收入已經(jīng)超過(guò)150億美元。更關(guān)鍵的是,包含Graviton、Trainium和Nitro在內(nèi)的自研芯片業(yè)務(wù),年化收入超過(guò)200億美元,還在以三位數(shù)同比增長(zhǎng)。
安迪表示,如果把這塊業(yè)務(wù)單獨(dú)拆出來(lái),像英偉達(dá)那樣直接向第三方賣(mài)芯片,年化規(guī)模大約能達(dá)到500億美元。
這個(gè)規(guī)模就不能再叫它「內(nèi)部降本工具」了,這是一塊真正長(zhǎng)出來(lái)的新業(yè)務(wù)。
更重要的是,亞馬遜現(xiàn)在不是只做芯片。它有底層芯片,有數(shù)據(jù)中心,有AWS,有Bedrock,有Anthropic這樣的深度綁定客戶(hù),也有OpenAI、蘋(píng)果這些外部大客戶(hù)。
雖然模型本身沒(méi)那么亮眼,不過(guò)亞馬遜的確是一家全棧AI公司了。
微軟還在OpenAI、Copilot、Azure和Maia之間摸索主軸,亞馬遜的方向反而越來(lái)越清楚:讓AI盡可能跑在AWS上,盡可能消耗AWS自己的芯片,最后把AI時(shí)代的利潤(rùn)率和控制權(quán)重新抓回自己手里。
所以我才覺(jué)得,芯片正在成為亞馬遜的「AWS」。
就比如Anthropic。他們的Claude模型,全都已經(jīng)在亞馬遜的芯片上跑過(guò)了。為了吃定這個(gè)大客戶(hù),亞馬遜專(zhuān)門(mén)建了一個(gè)AI算力集群,叫Project Rainier。這個(gè)集群是全球已知最大的非Nvidia算力集群之一,僅印第安納州New Carlisle這一處園區(qū),當(dāng)時(shí)就已經(jīng)部署了大約50萬(wàn)顆Trainium2芯片。到2025年底,規(guī)模擴(kuò)大到100萬(wàn)顆——而這些芯片存在的目的就一個(gè),跑Claude。
亞馬遜都這么客氣了,Anthropic自然也得禮尚往來(lái),直接參與了亞馬遜Trainium3芯片的設(shè)計(jì)工作。
以前都是芯片公司有什么芯片,AI公司才能訓(xùn)練怎樣的模型。現(xiàn)在反過(guò)來(lái)了,AI公司開(kāi)始教云廠(chǎng)商怎么造芯片。
問(wèn)題也隨之而來(lái)。亞馬遜為啥非要自己造芯片?真的是為了挑戰(zhàn)英偉達(dá),還是只想把AWS的利潤(rùn)率再抬高一點(diǎn)?
歸根結(jié)底,這表面看是個(gè)硬件故事,往深處看,還是亞馬遜那套平臺(tái)邏輯:把別人的增長(zhǎng),變成自己的基礎(chǔ)設(shè)施收入。
Annapurna Labs成立于2011年,長(zhǎng)期處于隱身模式。這家公司由三位工程師創(chuàng)立,采用了一種很叛逆的設(shè)計(jì)理念——從云計(jì)算、數(shù)據(jù)流量、實(shí)際需求倒推回去,再設(shè)計(jì)芯片。這種反向思維,恰好與亞馬遜的工作方式完全契合。
2015年初,亞馬遜以3.5億美元收購(gòu)這家以色列芯片創(chuàng)業(yè)公司。沒(méi)有新聞發(fā)布會(huì),財(cái)報(bào)里只有一條簡(jiǎn)短聲明。當(dāng)時(shí)所有人都覺(jué)得,這只是亞馬遜眾多投資中不起眼的一筆。
收購(gòu)?fù)瓿珊螅瑏嗰R遜并沒(méi)有急于推出產(chǎn)品。Annapurna Labs的團(tuán)隊(duì)先是參與AWS相關(guān)項(xiàng)目,后來(lái)開(kāi)始給Nitro System的底層做硬件設(shè)計(jì)。
Nitro System是AWS的一套云基礎(chǔ)設(shè)施底層架構(gòu),把原來(lái)由服務(wù)器主CPU和傳統(tǒng)虛擬化軟件負(fù)責(zé)的很多事情,拆出來(lái)交給專(zhuān)門(mén)的硬件去做。Annapurna Labs就是負(fù)責(zé)設(shè)計(jì)這個(gè)硬件。
有一說(shuō)一,這只是小打小鬧,或者你可以直接理解為Annapurna Labs在融入亞馬遜大家庭之前的一次團(tuán)建。真正的故事要從2018年開(kāi)始講起。
3年之后,AWS推出了Inferentia,一款專(zhuān)門(mén)用于推理的機(jī)器學(xué)習(xí)芯片。亞馬遜認(rèn)為,與訓(xùn)練相比,推理任務(wù)對(duì)芯片的要求略低,更容易切入。這屬于人之常情,很多國(guó)內(nèi)做AI芯片的廠(chǎng)商也秉持相同想法。
2019年,搭載Inferentia芯片的Inf1實(shí)例正式上線(xiàn)。
性能如何?亞馬遜之前有一套搭載英偉達(dá)T4 GPU的云服務(wù)器,主打圖形渲染、視頻處理和機(jī)器學(xué)習(xí)推理。Inf1比它多了最高3倍吞吐,每次推理成本最多低40%。
但I(xiàn)nf1在市場(chǎng)上沒(méi)什么聲量。原因在于它是專(zhuān)門(mén)為推理場(chǎng)景優(yōu)化的,特別適合推薦系統(tǒng)、圖像識(shí)別、語(yǔ)音識(shí)別、NLP推理這些。可問(wèn)題在于,亞馬遜的整個(gè)芯片生態(tài)剛起步,你想用Inf1,就必須用亞馬遜自己的AWS Neuron SDK。
這個(gè)SDK雖然支持TensorFlow/PyTorch/MXNet,但兼容性和成熟度遠(yuǎn)不如英偉達(dá)的CUDA。早期編譯器限制也很多,比如控制流、模型大小、BERT序列長(zhǎng)度等都有約束。
所以Inf1更像是個(gè)概念產(chǎn)品,只是給市場(chǎng)打了個(gè)樣,亞馬遜自己也深知這一點(diǎn)。
不過(guò)Inf1的表現(xiàn)還是超出了預(yù)期,于是接下來(lái),亞馬遜開(kāi)始高歌猛進(jìn)。
2021年,AWS正式發(fā)布首款面向客戶(hù)用于訓(xùn)練AI模型的芯片Trainium。訓(xùn)練芯片的技術(shù)難度遠(yuǎn)高于推理芯片,第一代Trainium基于7納米工藝,擁有約550億個(gè)晶體管,2022年開(kāi)始為EC2 Trn1實(shí)例提供算力。
亞馬遜表示,在特定工作負(fù)載下,Trainium的每token成本比A100集群低54%。對(duì)于GPT類(lèi)模型,Trainium的吞吐量與A100相當(dāng),但成本只有一半左右。
2023年底,亞馬遜在re:Invent大會(huì)上發(fā)布第二代Trainium2芯片。這款芯片采用5納米工藝,計(jì)算核心數(shù)量是第一代的4倍,訓(xùn)練速度提升4倍,內(nèi)存容量顯著增加。
Trainium2針對(duì)生成式AI訓(xùn)練做了專(zhuān)門(mén)優(yōu)化,支持結(jié)構(gòu)化稀疏性,能夠更高效地處理大語(yǔ)言模型的訓(xùn)練任務(wù)。且相較于基于H200/H100的同類(lèi)云配置,價(jià)格性能可再提升30%到40%。
2024年12月,亞馬遜在re:Invent大會(huì)上首次公布新一代Trainium3芯片。這是AWS首款采用3納米工藝的AI芯片。
到2025年底,Trainium3被正式集成到Trn3 UltraServer中,每臺(tái)服務(wù)器搭載144顆芯片,提供362 petaflops總算力。這些服務(wù)器采用液冷技術(shù),能效比前代提升約4倍。
AWS表示,在部分訓(xùn)練和推理場(chǎng)景下,客戶(hù)可將成本進(jìn)一步壓低至英偉達(dá)GPU方案的一半左右。
從2015年到2026年,亞馬遜在芯片業(yè)務(wù)上的投入是漸進(jìn)式的,越后面投入越大。
2025年,亞馬遜資本支出達(dá)到約1250億美元,其中絕大部分流向AI所需的數(shù)據(jù)中心、電力和芯片。2026年,這個(gè)數(shù)字預(yù)計(jì)將達(dá)到2000億美元,比分析師預(yù)期高出近40%,也超過(guò)了谷歌宣布的1850億美元上限。
前文提到亞馬遜芯片業(yè)務(wù)年化營(yíng)收已超過(guò)200億美元,這個(gè)數(shù)字包括Graviton處理器、Trainium訓(xùn)練芯片和Nitro網(wǎng)絡(luò)芯片的總收入。
股東信還透露,如果芯片業(yè)務(wù)作為獨(dú)立公司運(yùn)營(yíng),像英偉達(dá)或英特爾那樣直接向第三方銷(xiāo)售芯片,年化營(yíng)收規(guī)模可達(dá)500億美元。
Graviton本質(zhì)上就是Annapurna Labs開(kāi)發(fā)的一款A(yù)rm服務(wù)器CPU,用來(lái)替代英特爾和AMD那類(lèi)傳統(tǒng)x86處理器,負(fù)責(zé)跑Web服務(wù)、數(shù)據(jù)庫(kù)、容器和各種企業(yè)應(yīng)用。
你可能要問(wèn)了,那為啥要有這玩意?我用英特爾的CPU不行嗎?
AWS上有大量工作負(fù)載,其實(shí)根本不需要GPU,也不需要什么AI芯片,吃的就是最普通、最穩(wěn)定、最長(zhǎng)期的服務(wù)器CPU算力。對(duì)這些常見(jiàn)工作負(fù)載來(lái)說(shuō),Graviton更便宜、更省電,還更容易推廣。
目前,亞馬遜的芯片主要通過(guò)AWS以租用形式提供給客戶(hù),而不是直接銷(xiāo)售硬件。客戶(hù)購(gòu)買(mǎi)的是EC2實(shí)例的計(jì)算能力,背后可能是Graviton、Trainium或Inferentia芯片。這種商業(yè)模式與傳統(tǒng)芯片廠(chǎng)商完全不同,倒是和網(wǎng)上一些租顯卡的個(gè)體戶(hù)很像。
從后來(lái)的結(jié)果看,Graviton也確實(shí)成了亞馬遜自研芯片里最早跑通商業(yè)閉環(huán)的產(chǎn)品。它不像Trainium那樣需要客戶(hù)重寫(xiě)大量訓(xùn)練流程,也不像Inferentia那樣強(qiáng)依賴(lài)特定推理場(chǎng)景。
在AWS彈性計(jì)算產(chǎn)品的1000個(gè)最大客戶(hù)中,超過(guò)90%正在使用Graviton芯片。AWS還披露,有超過(guò)5萬(wàn)名客戶(hù)在使用Graviton。蘋(píng)果、SAP、Pinterest、Datadog都是Graviton的用戶(hù)。
所謂一分錢(qián)難倒英雄漢,很多公司遷移到Graviton,就是因?yàn)樗阋恕⒎€(wěn)定,而且遷移成本低。
Graviton先幫亞馬遜證明了一件事:只要價(jià)格便宜,客戶(hù)并不介意自己用的是什么芯片。而這件事一旦被證明,Trainium和Inferentia后面的故事才真正有了繼續(xù)講下去的底氣。
Trainium和Inferentia的客戶(hù)相對(duì)少一些,它們最大的客戶(hù)是Anthropic。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.