![]()
文 任澤平團隊
AI的背后是算力,算力的背后是電力。
AI時代,算力就是生產力,Agent AI驅動算力進入黃金爆發期。全球科技巨頭開啟算力投資軍備競賽,單位算力成本大幅下行,推理算力占比將提升至70%以上,算力從稀缺資源轉向新型數字基建。
算力產業呈現三大趨勢:一是算力投入規模決定了AI智能上限,Scaling Law驅動模型持續進化;二是推理端的算力成為增長核心,占比快速提升、并主導算力的需求結構;三是算力通脹加劇,能源與數據成為產業發展的終極約束。
算力產業鏈格局清晰:
上游:先進制程、HBM3e與2.5D/3D封裝、Chiplet技術加速突破,IDC數據顯示國產AI加速卡市占率突破41%,自主可控形成閉環;
中游:光互聯革命破解帶寬瓶頸,CPO共封光學與硅光、EML光源迭代,重構算力網絡物理層;
下游:AIDC智算中心向高密度、液冷化、網格化升級,成為AI落地的物理底座。
全球AI算力面臨 的 能源赤字 依然嚴峻 ,電力約束日益凸顯,太空算力 會 走向工程 化 。依托太空高效太陽能與天然散熱優勢, 未來 低軌算力網 會 成為大國主權競爭新賽道。
4月22日晚,我將進行新的大勢研判。下方預約。
1、AI時代:算力就是生產力,Agent AI驅動算力進入爆發期
AI時代到來、超級應用大爆發,我們正處于第四次工業革命的黎明。算力就是生產力,Agent就是生產工具。2026以來,以豆包、千問為代表的國民級應用,以及“養小龍蝦”等Agent AI的需求激增,AI正式跨入大規模商用階段。算力演變為一種具備高流動性、高價值的“數字腦力石油”,每一份算力的增加都將直接轉化為更高的決策質量與商業產出。
當前,全球科技巨頭已進入算力投資的“永動機”模式。根據英偉達預計,到2030年人工智能基礎設施支出將達到3萬億至4萬億美元。這種投資熱潮在2026年呈現出一個看似矛盾的現象:單位Token價格在大幅度下滑,但算力總投資卻在經歷超級通脹。
這種現象背后的底層邏輯由兩個維度支撐:
一是技術普惠,單位算力單價的極致下行。
算法與硬件的雙重迭代,一方面算法優化:隨著MoE(混合專家架構)和MLA(多頭潛在注意力)等架構的普及,單枚Token的推理成本已下降了近1000倍。另一方面是硬件演進,硬件迭代為成本下降提供了物理基礎。以英偉達GPU為例,2024年的Blackwell GPU生成一個Token所需的能耗,比2014年的Kepler GPU降低了驚人的10.5萬倍。
二是成本降低帶來的總需求激增。
當資源的利用效率提高、成本降低時,其總消耗量反而會因為應用場景的爆發而激增。2026年,人和AI的交互模式發生了質變。未來不再只是直接與AI對話,而是通過成千上萬個Agent智能體進行自動化協作。一個復雜任務的拆解與執行,其背后調用的Token消耗量是傳統對話模式的百倍以上。根據IDC數據,活躍Agent的數量將從2025年的約2860萬快速攀升至2030年的22.16億。隨著任務復雜度提升,推理深度與調用鏈路不斷加長,底層Token消耗正呈現出數量級的躍遷。
未來,AI算力會從“軍備競賽”模式轉移到全社會新基建模式。
這種總規模膨脹、單位成本下降的大趨勢,標志著AI行業進入了成熟期。當推理成本真正降至“百萬Token一分錢”時,算力完成了從昂貴資源向通用資源的轉變。巨量的算力投入支撐起龐大的數字勞動力市場,AI徹底轉型為支撐社會運轉的新型基礎設施。
2、算力產業三大發展趨勢
趨勢一:算力投入規模直接定義AI智能上限。
Scaling Law是當前大模型進化的第一性原理,證明了智能是一種可以被工程化量產的物理產物。
AI大模型時代Scaling Law告訴我們,只要你持續按比例擴大算力投入、模型參數和高質量數據量,模型的理解與推理能力就一定會增強。通俗講就如學英語,學100個單詞只是單詞,學1000個單詞就能組句子,背1萬個單詞可能就懂語法和隱喻了,這就是“學得多=能力強”的樸素Scaling Law。
所以,當前全球科技競爭的本質已演變為算力規模的消耗戰。只要持續加大算力、參數與數據的投入,模型的邏輯水平就會實現確定性的躍遷。算力規模已成為決定國家與企業智能競爭力的第一基石。
![]()
趨勢二:推理相關算力正成為增長的核心。
算力需求正從靜態的知識預訓練、轉向動態的邏輯推理。
傳統的語言模型依賴于基于概率的下一個字符預測,而推理模型則通過強化學習與路徑搜索,實現了類似人類的深思熟慮。
隨著o1/o3等具備思維鏈(CoT)能力模型的出現,模型在解決復雜問題時需要更多的推理。在這種模式下,模型的性能取決于它在面對復雜問題時愿意投入多少“思考時間”。這種“以時間換智能”的模式,讓推理階段的算力需求呈現指數級通脹,徹底打破了傳統算力的分配比例。未來,預計推理算力在整體結構中的占比將由20%攀升至70%以上。
![]()
趨勢三:算力通脹連鎖反應,數據、能源、電力基礎設施成為終極需求
算力通脹時代,算力競爭的重點轉向能源博弈。當需求從“萬卡集群”向“百萬卡集群”跨越時,電力供應、液冷散熱及定制化芯片能力決定了產業發展的上限。
IDC數據顯示,全球年度Token消耗量將從2025年的0.0005PetaTokens暴增至2030年的15萬PetaTokens以上,復合增長率高達3000%以上,這就是算力通脹。算力不再是單純的IT成本,而已成為一種稀缺的基礎性戰略資源。
另一方面,大規模算力訓練使得高質量數據正面臨枯竭,由大模型推理生成的合成數據未來會成為新一代模型的頂級數據原材料。這形成了一個自我強化的閉環:算力生產高質量數據,數據反哺模型進化,進化后的模型產生更高的算力需求。
![]()
3、算力產業鏈上游:先進制造芯片,自主可控大趨勢
一是先進制程代工能力的持續迭代:為國產算力芯片的規模化生產提供了底層保障。中芯國際、華虹半導體等本土龍頭企業通過工藝優化與產能擴充,正全力支撐國產通用GPU與特定場景ASIC芯片的落地。
根據IDC于2026年4月發布的《2025年中國云端AI加速器市場跟蹤報告》,2025年中國AI加速卡總出貨約400萬張,國產廠商如昇騰、平頭哥、昆侖芯、寒武紀、海光等出貨165萬張,占比41%。隨著國產芯片在主流推理市場份額突破40%的平衡點,產業鏈正形成從“設計端下單”到“制造端反饋”的閉環。
二是技術突圍:國產算力芯片已進入第三代高帶寬內存HBM3e與2.5D/3D先進封裝時代,芯片垂直堆疊和平面互連的高密度集成技術逐漸主流。另外,通過Chiplet芯粒的異質集成技術,可繞開制程限制,實現不同工藝芯片的高效整合,是國產算力突圍的核心路徑,先進封裝直接決定算力性能與集成密度。同時,兆易創新、瀾起科技等企業在HBM 存儲接口與高速連接領域的布局,徹底破解大模型 “計算快、讀寫慢” 的數據輸入輸出I/O 傳輸延遲瓶頸,保障海量推理任務下算力芯片全速運轉。
三是封測環節:國產企業通過領先布局,正承接全球范圍內算力硬件的結構性紅利。比如,盛合晶微、長電科技等部分企業在2.5D封裝、高密度互聯等領域的突破,有效緩解了制程約束對單卡性能的影響。封裝設備的國產化率也在同步提升,諸如華峰測控、光力科技等企業在測試與劃片環節的深度參與,確保了產業鏈在極端環境下的供應韌性。
4、算力產業鏈中游:光互聯革命,打破帶寬瓶頸
過去二十年,全球計算能力增長約60000倍,但互聯帶寬僅增長30倍。這種“算力極速狂奔、帶寬原地踏步”的極度失衡,已成為制約算力中心效率提升的第一物理阻礙。算力與帶寬的失衡,“高速算力芯片、但是配合低帶寬電互聯”的瓶頸問題愈發凸顯。
在此背景下,光互聯作為算力產業鏈中游的核心樞紐,正從配套角色躍升為算力系統架構的核心,成為解決計算快、傳輸慢的關鍵。
CPO共封光學,本質重構算力網絡的物理層,實現降本增效。CPO是算力中游光互聯的下一代核心技術,其本質是將光引擎與交換機ASIC芯片在封裝內近距集成:傳統插拔式光模塊依賴PCB長距離電互聯,散熱、功耗、帶寬瓶頸突出;而CPO通過硅光芯片實現封裝內垂直短距互連,將光電轉換環節從板級遷移到芯片級,特點是:互聯功耗大幅降低70%,同時端口密度翻倍,完美匹配超高密度AI算力集群的需求,是下一代數據中心算力網絡的標配方案。
目前光源技術路線迭代是大勢所趨。這是光模塊、CPO的性能底座。光源就像光互聯的“發光燈泡”,是光模塊、CPO里最核心的零件,它的技術路線直接決定了800G、1.6T這些高速光模塊能不能跑得更快、更省電、更便宜。
目前行業主流有兩種技術路線:
第一種是EML(電吸收調制激光器),相當于“高性能專業燈泡”,發光質量好、傳得遠、抗干擾強,是長距離數據傳輸的首選,適合跨城市、跨國家的骨干網絡;
第二種是CW+硅光方案,相當于“低成本量產燈泡”,能和芯片制造工藝兼容,更容易大規模生產、成本更低、集成度更高,適合數據中心內部的短距離高速互聯。
兩種路線的目標完全一致:在更小的空間里,實現更快的數據傳輸、更低的功耗。隨著硅光技術越來越普及,國內產業鏈在光芯片、光源、封裝環節的配合會越來越順暢,能給算力網絡的全面升級提供更扎實的支撐。
5、算力產業鏈下游:AIDC基建熱潮
AIDC從通用機房向高密度“算力工廠”升級,單機柜功率密度跨越提升。AIDC人工智能數據中心正徹底告別傳統通用機房形態,呈現單機柜功率密度提升趨勢。傳統的IDC是5-10kW的設計標準,已完全無法承載AI大模型訓練和推理所需的GPU集群算力。而2026年新建AIDC普遍要求單機柜功率達到50kW以上,部分超算場景甚至突破100kW。這種量級的跨越,倒逼數據中心從電力配給、配電架構到建筑結構進行全鏈路重構,能源管控能力成為AIDC的核心競爭力。
液冷技術從可選項變為必選項,能破解AI算力的散熱與能耗瓶頸。液冷技術已徹底演變為高性能智算中心的必選項。面對高性能GPU運行產生的海量熱量,傳統風冷技術已觸及散熱極限;液冷不僅能提供數倍于風冷的散熱效率,還能大幅降低PUE(能源使用效率比),滿足嚴苛的碳中和要求。這一技術變革帶動了從液冷板、冷卻液到循環冷卻系統的全產業鏈需求爆發,為AI大模型走向全社會實戰提供了關鍵的物理支撐。
主權AI驅動國家級基建投資,AIDC布局向網格化、邊緣化下沉。“主權AI”興起,推動各國政府對本土算力基建進行飽和式投資,算力已成為國家主權信用的延伸。為保障本國數據安全與智力資產自主,各國紛紛啟動本土化AIDC建設。這種國家級資本支出為算力基建提供了長期、確定的增長驅動力。
同時,AIDC的地理分布正從“中心化”向“邊緣化”滲透,形成網格化布局:隨著Agent實時交互等場景需求激增,算力必須貼近用戶,從支撐國計民生的超大型智算中心,到嵌入城市節點的邊緣側模塊化中心,徹底打通AI賦能千行百業的“最后一公里”。
![]()
![]()
6、算力面臨能源瓶頸,太空算力未來可期
AI的背后是算力,算力的背后是電力。
全球AI算力面臨物理硬約束——能源赤字。目前AI發展的最大瓶頸已非芯片,而是電力。據Rand數據,2030年單個AI訓練地點的電力需求或高達8GW(約相當于8座大型核反應堆)。與此同時,全球主要經濟體(除中國外)電網修建緩慢、電力產出停滯,算力需求卻指數級增長,供需錯配。
基于第一性原理,將算力中心推向太空成為解法:太空無晝夜循環、無大氣衰減,太陽能板效率約為地面的5倍;且提供天然深空熱沉,僅靠輻射散熱即可支撐兆瓦級負載,徹底解決地面AIDC的能耗與冷卻痛點,未來太空將成為生成式AI算力成本最低的樞紐。
2026年,星鏈等技術的成熟,標志著太空算力未來可以工程落地。SpaceX正為年發射1萬次、遠期2-3萬次做準備,計劃五年內向軌道輸送100吉瓦太陽能與算力載荷,目標讓太空AI算力規模超越地球。低軌算力網未來進入工程化階段。
太空算力正成為大國主權競爭的新賽道,核心博弈聚焦于軌道位置、頻譜資源與算力配額。對中國而言,依托能源供給側體系優勢,提前布局天算體系是構建全球算力競爭力、奠定未來數字文明戰略基礎的關鍵舉措。
![]()
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.