公眾號記得加星標(biāo)??,第一時間看推送不會錯過。
谷歌將繼續(xù)與英特爾合作,為其公共云購買 SmartNIC,而不是像 AWS 那樣自行開發(fā) Nitro NIC。
與當(dāng)今大多數(shù)超大規(guī)模數(shù)據(jù)中心運營商一樣,谷歌也采用了智能網(wǎng)卡(SmartNIC),或者如英特爾所稱的基礎(chǔ)設(shè)施處理單元(IPU)。這些設(shè)備本質(zhì)上是網(wǎng)卡上的計算機,旨在卸載網(wǎng)絡(luò)、安全和存儲操作,從而釋放 CPU 資源以支持租戶工作負(fù)載。
亞馬遜采用其 Annapurna Labs 團(tuán)隊的定制 ASIC,微軟使用在 FPGA 上運行的定制邏輯,而谷歌則委托英特爾開發(fā)了一款名為Mount Evans 的基于 ASIC 的 IPU ,該 IPU 于 2022 年與其 C3 實例一同推出。
周四,英特爾宣布谷歌已擴(kuò)大與英特爾的合作,共同開發(fā)新的IPU。這份新聞稿讀起來像是英特爾孤注一擲地試圖說服公眾,其數(shù)據(jù)中心和網(wǎng)絡(luò)部門仍然具有重要意義。
英特爾首席財務(wù)官大衛(wèi)·津斯納在1月份的公司第四季度財報電話會議上曾暗示對這些服務(wù)的需求增加,并吹噓公司定制ASIC業(yè)務(wù)在2025年增長超過50%,并在第四季度末實現(xiàn)了超過10億美元的年化收入。
英特爾沒有詳細(xì)說明谷歌的下一代 IPU 可能是什么樣子,但考慮到人工智能計算集群對高速網(wǎng)絡(luò)的需求,它很有可能比其 200 Gbps 的埃文斯山 IPU 快得多。
除了擴(kuò)大與IPU的合作之外,英特爾也強調(diào),這家“巧克力工廠”并沒有放棄其至強處理器,這些處理器將繼續(xù)為各種通用和人工智能工作負(fù)載提供動力。換句話說,一切照常進(jìn)行。
與許多超大規(guī)模數(shù)據(jù)中心一樣,谷歌現(xiàn)在擁有了自己的基于 Arm 架構(gòu)的 CPU,代號為Axion,用于運行內(nèi)部和面向客戶的工作負(fù)載。
然而,正如 Graviton 和 Cobalt 已經(jīng)取代了亞馬遜或微軟云中的 Xeon 或 Epyc 處理器一樣,英特爾和 AMD 近期內(nèi)都不會面臨被 Axion 淘汰的風(fēng)險。
事實上,由于許多客戶出于性能或兼容性原因更喜歡在 x86 內(nèi)核上運行工作負(fù)載,因此英特爾仍然有助于對 AMD 施加價格壓力,反之亦然。
總之,英特爾認(rèn)為有必要向所有人保證,至強處理器仍然是谷歌云的關(guān)鍵組成部分,尤其是在人工智能領(lǐng)域。但話說回來,這并非什么新鮮事。
自 2022 年的 H100 以來,至強處理器一直是英偉達(dá) 8 GPU DGX 參考設(shè)計的首選 CPU。換句話說,谷歌的許多 GPU 實例內(nèi)部已經(jīng)使用了英特爾的處理器。
而且,雖然人工智能工作負(fù)載也需要 CPU 來協(xié)調(diào)代理并執(zhí)行由谷歌 GPU 和 TPU 生成的代碼,但 Xeon 本身并沒有任何優(yōu)勢比 Epyc 或 Axion 更適合這項工作。事實上,在云規(guī)模下,最適合代理式人工智能的 CPU 可能就是任何給定時刻恰好處于空閑狀態(tài)的 CPU。
英特爾和谷歌深化合作
英特爾公司(納斯達(dá)克股票代碼:INTC)和谷歌今天宣布了一項多年合作計劃,旨在推進(jìn)下一代人工智能和云基礎(chǔ)設(shè)施的發(fā)展,并強化CPU和定制基礎(chǔ)設(shè)施處理單元(IPU)在擴(kuò)展現(xiàn)代異構(gòu)人工智能系統(tǒng)中的關(guān)鍵作用。
隨著人工智能的快速普及,基礎(chǔ)設(shè)施變得日益復(fù)雜和異構(gòu),對CPU在編排、數(shù)據(jù)處理和系統(tǒng)級性能方面的依賴性也越來越高。通過此次合作,英特爾和谷歌將整合多代英特爾? 至強? 處理器,以提升谷歌全球基礎(chǔ)設(shè)施的性能、能效和總體擁有成本。
人工智能并非僅靠加速器運行,而是運行在系統(tǒng)之上。而CPU則是這些系統(tǒng)的核心。
谷歌云持續(xù)在其工作負(fù)載優(yōu)化實例中部署英特爾至強處理器,包括為 C4 和 N4 實例提供動力的最新英特爾至強 6 處理器。這些平臺支持廣泛的工作負(fù)載,從大規(guī)模 AI 訓(xùn)練協(xié)調(diào)到對延遲敏感的推理和通用計算。
與此同時,英特爾和谷歌正在擴(kuò)大基于ASIC的定制化IPU的聯(lián)合開發(fā)。這些可編程加速器將網(wǎng)絡(luò)、存儲和安全功能從主機CPU卸載,從而提高CPU利用率、提升效率,并在超大規(guī)模AI環(huán)境中實現(xiàn)更可預(yù)測的性能。
IPU 是現(xiàn)代數(shù)據(jù)中心架構(gòu)的關(guān)鍵組件。它們能夠處理傳統(tǒng)上由 CPU 管理的底層架構(gòu)任務(wù),從而釋放更大的有效計算能力,并使云服務(wù)提供商能夠在不增加整體系統(tǒng)復(fù)雜性的情況下更高效地擴(kuò)展。Xeon CPU 和 IPU 共同構(gòu)成了一個緊密集成的平臺,該平臺兼顧通用計算和專用的底層架構(gòu)加速,從而提供更高效、更靈活、更具可擴(kuò)展性的 AI 系統(tǒng)。
英特爾首席執(zhí)行官陳立步表示:“人工智能正在重塑基礎(chǔ)設(shè)施的構(gòu)建和擴(kuò)展方式。擴(kuò)展人工智能需要的不僅僅是加速器,還需要均衡的系統(tǒng)。CPU 和 IPU 對于提供現(xiàn)代人工智能工作負(fù)載所需的性能、效率和靈活性至關(guān)重要。”
谷歌人工智能基礎(chǔ)設(shè)施高級副總裁兼首席技術(shù)官Amin Vahdat表示:“CPU和基礎(chǔ)設(shè)施加速仍然是人工智能系統(tǒng)的基石——從訓(xùn)練編排到推理和部署。英特爾近二十年來一直是值得信賴的合作伙伴,他們的至強處理器路線圖讓我們有信心能夠繼續(xù)滿足我們工作負(fù)載日益增長的性能和效率需求。”
此次擴(kuò)展合作體現(xiàn)了雙方共同致力于推進(jìn)面向人工智能時代的開放、可擴(kuò)展基礎(chǔ)設(shè)施的決心。通過將通用計算與專用基礎(chǔ)設(shè)施加速相結(jié)合,英特爾和谷歌正在推動一種更加平衡的人工智能系統(tǒng)設(shè)計方法——這種方法能夠提高資源利用率、降低復(fù)雜性并更高效地擴(kuò)展。
兩家公司攜手合作,正在加強下一代人工智能驅(qū)動型云服務(wù)的基礎(chǔ),從而支持全球企業(yè)、開發(fā)者和用戶的持續(xù)創(chuàng)新。
(來源:半導(dǎo)體行業(yè)觀察綜合)
*免責(zé)聲明:本文由作者原創(chuàng)。文章內(nèi)容系作者個人觀點,半導(dǎo)體行業(yè)觀察轉(zhuǎn)載僅為了傳達(dá)一種不同的觀點,不代表半導(dǎo)體行業(yè)觀察對該觀點贊同或支持,如果有任何異議,歡迎聯(lián)系半導(dǎo)體行業(yè)觀察。
今天是《半導(dǎo)體行業(yè)觀察》為您分享的第4372內(nèi)容,歡迎關(guān)注。
加星標(biāo)??第一時間看推送
![]()
![]()
求推薦
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.