![]()
在2026年CES的聚光燈下,黃仁勛沒有僅僅談論芯片的算力,而是描繪了一個即將被智能體深度融入的現實世界。
“AI的第二個拐點已經到來——從理解語言到理解物理世界,從軟件智能體到具身智能體”。
當地時間1月5日,英偉達CEO黃仁勛身穿標志性皮衣登臺,圍繞“物理AI”展開了一場90分鐘的主題演講。
![]()
英偉達CEO黃仁勛
他指出,物理AI不僅涵蓋視覺與語言理解,更融合重力、摩擦、慣性等物理動態,能夠在真實世界中執行復雜任務,未來將重塑全球1000萬家工廠與20萬個倉庫的運作模式。
這一愿景背后,依托三大技術支撐:Newton物理引擎,實時計算物理世界模型,響應時間低于0.01秒,適用于機器人及自動駕駛場景;Cosmos基礎模型平臺,支持多模態物理世界理解,已訓練1000億參數,推理延遲降至1毫秒;GPU+LPU混合算力架構,GPU負責訓練,LPU專注低延遲推理,效率提升100倍,成本降低90%。
黃仁勛強調:“AI的價值不再僅由算力決定,而由場景定義。物理世界正是AI最大的應用場景。”
為此,英偉達將持續提供算力基石,并在自動駕駛、機器人等領域推動開源產品落地。黃仁勛指出,“開放模型已觸及前沿,雖然仍穩固地落后前沿模型六個月,但每隔六個月,一個新的模型就會出現。英偉達不僅開源模型,還將開源訓練數據,讓開發者真正理解模型的構建過程。”
01
Rubin架構正式登場,下半年量產
任何技術革命都離不開底層算力的支撐。“我們必須每年推動計算技術向前進步,一刻也不能延遲。”發布會上,黃仁勛正式發布了英偉達下一代AI數據中心機柜架構——Vera Rubin。
該架構命名致敬天文學家Vera Rubin,她在暗物質研究領域取得了突破性進展,其研究成果徹底改變了人類對宇宙的認知。
![]()
而這,也是每一代英偉達GPU架構的命名習慣。
黃仁勛此次披露了Rubin架構的更多細節:它由六類芯片構成,包括Vera CPU、Rubin GPU、NVLink 6交換機、ConnectX-9 SuperNIC、BlueField-4數據處理單元和Spectrum-6以太網交換機,共同組成Vera Rubin NVL72機架。
![]()
作為首款定制CPU+GPU協同設計的產品,采用臺積電2nm工藝,集成了Rubin GPU與專為智能體推理打造的Vera CPU,算力實現顯著躍升。
Rubin架構包含3360億個晶體管,NVFP4數據類型下,Rubin GPU推理性能達到50 PFLOPS,是Blackwell GB200的5倍;NVFP4訓練性能高達35 PFLOPS,是Blackwell的3.5倍。
![]()
為滿足龐大的計算資源需求,每款Rubin GPU都配備了8個HBM4顯存堆棧,提供288GB的容量和22 TB/s的帶寬。
與此同時,隨著大型語言模型從激活所有參數以生成給定輸出詞元的密集架構,轉向每個詞元僅激活部分可用參數的專家混合(MoE)架構,這些模型的擴展效率得以相對提高。然而,模型內部專家之間的通信需要大量的節點間帶寬。
為此,Vera Rubin數據中心架構引入了用于規模內擴展網絡的NVLink 6,將單GPU的互連帶寬提升至3.6 TB/s(雙向)。每顆NVLink 6交換芯片提供28 TB/s的帶寬,而每個Vera Rubin NVL72機架配備9顆這樣的交換芯片,總規模內帶寬達到260 TB/s。
![]()
NVIDIAVera CPU集成了88個定制的Olympus Arm核心,采用“spatial multi-threading”(空間多線程)設計,最多可同時運行176個線程。用于將Vera CPU與Rubin GPU進行一致性連接的NVLink C2C互連,其帶寬提升了一倍,達到1.8 TB/s。每顆Vera CPU可尋址最多1.5 TB的SOCAMM LPDDR5X內存,內存帶寬最高可達1.2 TB/s。
為了將Vera Rubin NVL72機架擴展為每組包含八個機架的DGX SuperPod,英偉達推出了兩款采用Spectrum-6芯片的Spectrum-X以太網交換機,每顆Spectrum-6芯片可提供102.4 Tb/s的帶寬,Nvidia將其應用于兩款交換機中。
![]()
據黃仁勛介紹,每個Vera Rubin NVL72機架可提供3.6 exaFLOPS的NVFP4推理性能、2.5 exaFLOPS的NVFP4訓練性能,連接至Vera CPU的54 TBLPDDR5X內存,以及20.7 TB的HBM4內存,帶寬達1.6 PB/s。
“與Blackwell相比,Vera Rubin在訓練MoE模型時所需的GPU數量僅為四分之一;在MoE推理場景下,其每token成本最高可降低10倍”。黃仁勛表示,Rubin能在相同機架空間內大幅提升訓練速度,并輸出更多token。
他透露,Rubin系列芯片已經全面投產,并將于今年下半年推出,重要應用于物理AI訓練、機器人模擬、自動駕駛仿真等領域,其訂單規模已達3000億美元,微軟下一代Fairwater AI超級工廠、CoreWeave等將成為首批應用者。
除了發布新產品,黃仁勛也公布了一些“老朋友”的進展:Blackwell Ultra量產加速,2026年Q2全面供貨,單機算力提升50%的同時功耗降低30%,適配機器人邊緣計算場景。
02
從自動駕駛到機器人,構建開放技術棧
芯片是算力的基石,場景則是“物理AI”的價值所在。其中,自動駕駛是核心落地場景之一。
在黃仁勛看來,當前輔助駕駛系統在應對“長尾場景”時仍面臨挑戰。傳統將感知與規劃分離的輔助駕駛架構,在突發或異常情況下存在泛化與可解釋性不足的問題。
為此,英偉達發布首個專為自動駕駛汽車設計的“推理”AI:Alpamayo,這是一個新系列的開放模型、模擬工具和數據集,專為基于推理的駕駛系統而設計。該系列引入基于思維鏈的VLA(Vision-Language-Action)推理模型,用于對復雜駕駛場景進行逐步推演和邏輯表達,以提升決策透明度。
![]()
Alpamayo系列包括三部分:
一是Alpamayo1,一款約100億參數規模的思維鏈推理模型,已在Hugging Face上開源,以使汽車能夠理解周圍環境并解釋其行動,用于研究、模型蒸餾及開發輔助工具。
二是AlpaSim,一套完全開源的端到端輔助駕駛仿真框架,已在GitHub發布,支持在多種環境和邊緣案例中進行閉環訓練和評估。
三是物理AI開放數據集,包含超過1700小時的真實道路駕駛數據,覆蓋不同區域和環境條件,并包含一定比例的復雜和罕見場景。
這些工具共同構成了一個自我強化的開發閉環,助力構建基于推理的自動駕駛技術棧。
不過,Alpamayo模型并非直接在車端運行,而是作為大規模的“教師模型”。開發者可以對其進行微調和蒸餾,轉化為各自完整自動駕駛技術棧的核心骨架。黃仁勛指出,Alpamayo系列為一個內聚的開放生態系統,任何汽車開發商或研究團隊都可以在此基礎上進行開發。
![]()
據黃仁勛透露,Alpamayo將率先搭載于2025款梅賽德斯-奔馳CLA車型,后續通過OTA升級逐步推送高速公路脫手駕駛、城市全場景自動駕駛、端到端自動泊車等功能,并逐步登陸美、歐、亞市場。“Lucid、捷豹路虎、Uber和DeepDrive等企業也希望基于Alpamayo實現L4級自動駕駛。”
有意思的是,知名特斯拉投資者Sawyer Merritt分享了英偉達發布會視頻和相關細節,指出Alpamayo將率先搭載梅賽德斯CLA。特斯拉CEO馬斯克很快回復道:“這正是特斯拉正在做的。他們會發現,達到99%很容易,但解決分布的長尾問題超級難。”
此外,黃仁勛還指出,升級后的Drive Thor算力達到2000TOPS,已斬獲15+車企訂單,將于2027年量產。
![]()
“我們的愿景是,未來有一天,每一輛汽車、每一輛卡車都將實現自動駕駛。”黃仁勛指出,自動駕駛汽車的時代已經全面到來,自動駕駛汽車將成為“首個大規模的、面向主流市場”的物理AI應用場景。
除了自動駕駛以外,具身智能也是物理AI的一大應用市場。英偉達為機器人推出的“大腦”Cosmos也再度升級,它主要被用來生成符合現實世界物理規律的合成數據。
![]()
此次Cosmos主要升級了三部分。
CosmosTransfer 2.5和Cosmos Predict 2.5:開源、完全可定制的世界模型,為物理AI實現基于物理原理的合成數據生成與機器人策略評估的仿真支持。
Cosmos Reason 2:開源推理視覺語言模型(VLM),使智能機器能夠像人類一樣看見、理解物理世界并采取行動。
IsaacGR00T N1.6:專為人形機器人打造的開放式推理視覺語言行動(VLA)模型,可解鎖全身控制能力,并借助Cosmos Reason增強推理和上下文理解。
從重新定義算力極限的Rubin架構,到為自動駕駛注入思維鏈的Alpamayo,機器人“大腦”Cosmos升級,英偉達的戰略圖譜清晰顯現:它正致力于成為智能體理解并行動于物理世界的“使能層”。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.