你敢信么,一臺AI服務器的發熱量,已經等于一個小型暖氣片。
你家臥室的暖氣片,額定功率大概是1000到1500瓦。
英偉達最新一代Rubin Ultra GPU,單顆芯片功耗2500瓦以上。
![]()
一臺裝滿72顆GPU的AI服務器機柜,總功耗超過100千瓦——相當于你們小區100套房子同時開暖氣。
這些熱量,必須被帶走。否則芯片會在幾秒鐘內燒毀。
過去,數據中心用風扇和冷風把熱量吹散——就像給服務器吹電風扇。這個方案在芯片功耗還不算離譜的年代勉強夠用。但當單顆芯片的功耗從700瓦(H100)躍升到1200瓦(GB200)、1400瓦(GB300)、2500瓦(Rubin Ultra),傳統風冷已經到了物理極限——空氣的熱傳導效率太低,風扇吹得再猛,也帶不走這么多熱量。
風冷時代,正在終結。
這不是一個漸進的過渡,而是一個被硬件迭代強制觸發的拐點。
英偉達在2026年GTC大會上正式確認:下一代Rubin平臺實現100%全液冷覆蓋,采用第三代完全無纜化設計,旗艦產品Vera Rubin NVL72機架式系統無纜化、無風扇。
翻譯成人話:以后英偉達的頂級AI服務器,風扇這個零件,直接消失了。
一個數字,讓你感受這個賽道有多大
2024年,全球數據中心液冷市場規模約19.6億美元。
2032年,這個數字預計將達到211.4億美元,8年復合增速33.2%。
這還只是全球數字。中國這邊:IDC預測2025年中國液冷服務器市場規模33.9億美元,同比增長42.6%,2025到2029年復合增長率48%,2028年市場規模有望突破162億美元。
更直觀的數字:摩根士丹利測算,英偉達GB300 NVL72機架級AI系統,單單液冷散熱組件的價值就高達49860美元(約合人民幣36萬元),比上一代GB200系統高了近20%。而下一代Vera Rubin NVL144平臺,單個機柜的冷卻組件總價值將達到5.57萬美元,比GB300再漲17%。
芯片功耗每升一代,液冷組件的單價就漲一次,市場總量也隨之擴大。
這是一條斜率極陡的增長曲線,而且觸發這條曲線的物理規律,沒有人能改變。
液冷不是一個技術,是三條賽道
很多人以為液冷就是"用水冷芯片",其實這個賽道內部的技術路線分化極其復雜,每條路線對應著完全不同的供應商格局和投資邏輯。
第一條:冷板式液冷——當下的主流,占存量市場80%
冷板貼在芯片表面,冷卻液在冷板內部的微通道里循環流動,把熱量帶走。芯片本身不與液體直接接觸,改造成本相對可控,兼容現有數據中心設施。
Rubin平臺的核心技術突破就在這里——微通道冷板(MLCP),將流道尺寸縮小至微米級,冷卻液直接流經芯片表面,散熱效率大幅提升。這對制造工藝(激光刻蝕、焊接密封)要求極高,是液冷產業鏈上技術壁壘最高的環節之一。
更進一步的是材料升級:散熱材料正從銅向金剛石/銅復合散熱基板升級,熱導率是純銅的2倍以上。液態金屬替代傳統導熱膏,也已獲英偉達官方認證,2026年將迎來規模化放量。
第二條:浸沒式液冷——超算的終極方案,PUE逼近1.0
整個服務器浸泡在特殊冷卻液里,散熱效率最高,PUE(電源使用效率)可以逼近理論極限1.0——意味著幾乎所有電能都用來計算,沒有浪費在散熱上。
問題是改造成本高,現有數據中心難以快速切換,且冷卻液本身(特種硅油、氟化液)的供應鏈還不成熟。但對于新建的AI超算中心,浸沒式液冷正在成為優先選項。
第三條:ASIC推動的第二增長曲線
過去液冷需求的增長,主要由英偉達GPU驅動。但2026年開始,谷歌TPU、亞馬遜Trainium、微軟自研ASIC……這些定制化AI芯片開始批量出貨,谷歌和AWS的ASIC合計出貨量預計2025年達到300萬片以上。
ASIC的散熱需求同樣旺盛,但它的供應鏈不像英偉達那樣高度集中,選擇相對開放——這給了國內液冷廠商一個繞過英偉達壁壘、切入全球頂級供應鏈的歷史性窗口。
中國液冷:從代工到自主的艱難跨越
現實情況是:英偉達體系供應商格局仍以臺資、歐美廠商為主,國內廠商在該體系品牌化進展偏緩。大陸液冷領域多數企業,目前作為臺資廠及歐美廠商的代工廠參與英偉達供應鏈——賺的是加工費,不是品牌溢價。
但有幾家已經跨過這道門檻:
領益智造(002600.SZ)旗下子公司立敏達,是大陸少數進入英偉達RVL名單的企業,為GB200、GB300提供冷板、Manifold、UQD、Busbar等產品,已進入穩定批量交付階段,實現了柜內液冷組件的全覆蓋。
英維克(002837.SZ)憑借全鏈條液冷方案儲備,已進入英偉達GB200/300 NV72的RVL名單;同時在谷歌CDO體系中取得一定進展,是橫跨英偉達和谷歌兩個生態的稀缺標的。
國內廠商直接切入歐美CSP及英偉達核心供應鏈難度較大,需要較長時間的技術積累與資質認證。但北美數據中心市場約40%的份額來自非CSP的第三方中立數據中心,這類數據中心要求與CSP及英偉達標準相符,但采購流程相對靈活——這是國內廠商向品牌供應商轉型的重要突破口。
另一條路,是國產算力體系。華為2025年推出CloudMatrix 384超節點,已銷售300余套;將推出的Atlas 950 SuperPoD超節點,算力規模8192卡,預計2026年四季度上市。國內已有中科曙光、阿里、百度、沐曦、浪潮等9家廠商加入超節點之爭。國產算力芯片出貨高增,將給國內液冷市場帶來與英偉達體系平行的獨立增量。
政策也在推一把
這個賽道有一個很多人沒注意到的政策催化劑。
歐盟從2025年1月起,要求所有數據中心強制測量并公開PUE數據。2026年7月起,現有數據中心PUE必須低于1.5,2030年進一步降至1.3以下;新建數據中心自2026年起PUE必須低于1.2。
傳統風冷數據中心的PUE普遍在1.4到1.6之間,液冷方案的PUE可以做到1.1到1.2,浸沒式液冷逼近1.0。
歐盟的PUE強制合規要求,等于給液冷改造下了行政命令——不是"你可以考慮",是"你必須達標"。這個合規需求將在2026到2030年間釋放出一波數百億美元規模的改造訂單,且與AI需求完全疊加,兩股力量共同推動液冷滲透率從2024年的約14%向2026年的30%躍進。
微軟CEO最近說的一句話,道出了這個賽道的底層邏輯:他們當前面臨的不是算力過剩,而是數據中心的供電和物理空間已接近極限,大量AI芯片只能滯留在庫存中,無法"通電運行"。液冷方案在電力消耗上的"節流"效應,不只是散熱問題,是在幫數據中心解決電力瓶頸。
當液冷能讓同一個供電容量里塞進更多的GPU,它就不只是散熱設備,它是AI算力的倍增器。
說在最后
液冷這個賽道,有一個讓人放心的底層邏輯:
它的需求,不來自政策補貼,不來自市場炒作,來自芯片功耗的物理規律。只要AI還在進化,芯片功耗就會繼續升,液冷就會繼續被需要。
從Rubin Ultra的2500瓦,到下一代Feynman架構預期的5000瓦+——這條功耗曲線往哪個方向走,液冷的市場就往哪個方向走。
這條曲線,沒有人能改變。
風冷時代的終結,不是一個關于散熱的故事,是一個關于算力邊界被重新定義的故事。而在這個故事里,液冷是唯一的基礎設施。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.