![]()
作者 | Dwarkesh Patel 翻譯 | 蘇宓
出品 | CSDN(ID:CSDNnews)
2023 年 6 月,英偉達市值剛剛站上 1 萬億美元;到了 2025 年 7 月,它成為全球首家市值突破 4 萬億美元的科技公司。再往后不到一年的時間,如今其已經逼近 5 萬億美元關口。
一家起家于顯卡的公司,為什么能在 AI 時代一路“加速”,甚至改寫全球市值的天花板?答案顯然不只在 GPU 本身。
在最近一場長達 103 分鐘的深度對話中,英偉達 CEO 黃仁勛接受知名主持人 Dwarkesh Patel 專訪,集中回應了外界最關注的一系列問題:當軟件被 AI 快速“商品化”,英偉達會不會也走向同樣的命運?面對 Google TPU 的持續逼近,它的優勢還能維持多久?在全球先進制程產能高度緊張的背景下,英偉達如何真正“鎖住”供應鏈?以及一個更具爭議的問題——如何看待芯片出口管制?
這些問題背后,指向的是同一個核心:英偉達的護城河,到底只是技術領先,還是一整套難以復制的產業能力。
在這場對話中,黃仁勛給出了非常直接的判斷以及一些獨特鮮明的看法,其表示:
輸入是電子,輸出是 token,中間就是英偉達。
如果未來幾年市場規模達到萬億美元級別,英偉達是有供應鏈能力去承接的。
水管工和電工會成為 AI 行業“稀缺人才”。
曾經我并沒有真正意識到,打造像 OpenAI、Anthropic 這樣的頂級 AI 實驗室有多困難,也沒有意識到,這些實驗室需要來自供應商的巨額投資。這是我的失誤。
英偉達只做必要之事,盡可能少做額外之事。
如果世界分裂為兩大生態:開源生態僅運行于外國技術棧,封閉生態依附于美國技術棧,這對美國而言將是極度愚蠢的結果。
認為中國無法獲得 AI 芯片的說法,完全是無稽之談。
![]()
原文采訪地址:https://www.dwarkesh.com/p/jensen-huang
![]()
英偉達最大的護城河,是它對稀缺供應鏈的掌控嗎?
Dwarkesh Patel:我們已經看到,一批軟件公司的估值出現下跌,因為大家預期 AI 會讓軟件變成“同質化商品”。有一種可能比較直觀、但也有點天真的理解方式是這樣的:你看,英偉達把一個 GDS2 文件(集成電路或 IC 布局圖稿電子設計自動化 (EDA) 數據交換的事實行業標準)交給臺積電,由臺積電來制造邏輯芯片和交換機,再和 SK 海力士、美光、三星生產的 HBM 一起封裝。之后,這些組件被送到臺灣的 ODM 廠商那里組裝成整機機架。
從這個角度看,英偉達本質上是在做軟件,而制造是由別人完成的。如果軟件最終被“商品化”了,那英偉達會不會也被商品化?
黃仁勛:歸根結底,總得有東西把“電子”層面的計算轉化為“token”。而這個從電子到 token 的轉化過程,以及讓這些 token 隨時間變得更有價值,本質上是很難被完全商品化的。
從電子到 token 的轉化,是一段非常不可思議的旅程。創造一個 token,就像是讓一個分子比另一個分子更有價值,讓一個 token 比另一個更有價值。為了讓這個 token 具備價值,整個行業在其背后投入了大量的藝術、工程、科學和發明。我們現在正實時見證這一切的發生。這個轉化過程、制造過程,以及其中涉及的所有科學原理,都遠沒有被完全理解,這條路也遠遠沒有走完。所以我不認為它會變成一種簡單的商品。
當然,我們會不斷提升效率。你剛才描述問題的方式,其實和我看待我們公司的方式是一樣的:輸入是電子,輸出是 token,中間就是英偉達。
我們的工作,是在這個轉化過程中“做盡可能多必要的事,同時盡可能少地做不必要的事”。所謂“盡可能少”,就是凡是不需要我們親自做的部分,我們就和合作伙伴一起完成,把它納入我們的生態體系。
如果你看今天的英偉達,我們可能擁有最大的合作伙伴生態之一——無論是上游供應鏈,還是下游的整機廠商、應用開發者、模型開發者。
如果把 AI 比作一個“”,我們在這五層里都有完整的生態布局。我們盡量少做,但那些必須由我們來做的部分,恰恰是極其困難的。我不認為這些核心能力會被商品化。
事實上,我也不認同“企業軟件會被邊緣化”的看法。現在的大多數軟件公司,本質上都是“工具制造商”。當然,也有一些不是,比如工作流編排系統。但大量公司本質上是在做工具。舉個例子,Excel 是工具,PowerPoint 是工具,Cadence 做的是工具,Synopsys 也是做工具。
而我看到的趨勢,恰恰和很多人相反。我認為,Agent 的數量會指數級增長,而使用這些工具的“用戶”數量也會指數級增長。換句話說,這些工具的使用實例數量,很可能會暴漲。比如,Synopsys Design Compiler 的使用實例很可能會大幅增加,同時使用 floor planner(布局規劃工具)、版圖工具、設計規則檢查工具的 Agent 數量也會激增。
今天我們的瓶頸在于工程師數量,而未來,這些工程師會被大量 Agent 輔助。我們將以前所未有的方式探索設計空間,而所使用的,依然是今天這些工具。
我認為,正是“工具使用”的爆發,會推動軟件公司的增長。之所以現在還沒有發生,是因為 Agent 還不夠擅長使用這些工具。接下來,要么這些公司自己去做 Agent,要么 Agent 本身變得足夠強大,能夠熟練使用這些工具。我覺得最終會是兩者的結合。
Dwarkesh Patel:我記得在你們最近的財報中提到,英偉達在晶圓廠、內存和封裝方面的采購承諾接近 1000 億美元。SemiAnalysis 的報道甚至說,這類采購承諾可能會達到 2500 億美元。
有一種解讀是,英偉達真正的護城河,其實是你們鎖定了未來幾年大量稀缺的關鍵組件。也就是說,別人或許也能設計出加速器,但他們真的能拿到足夠的內存來生產嗎?能拿到足夠的邏輯芯片嗎?這是不是英偉達未來幾年的核心優勢所在?
黃仁勛:這確實是我們能做到、而別人很難做到的事情之一。我們在上游做了非常巨大的投入和承諾。一部分是公開的,也就是你剛才提到的那些采購承諾;另一部分是隱性的。比如說,上游供應鏈中有大量投資,其實是我們的合作伙伴自己做出的。原因在于,我會和這些公司的 CEO 交流:“讓我告訴你這個行業未來會有多大,我來解釋為什么會這樣,我們一起推演這個邏輯,我也會把我看到的趨勢講給你聽。”
在這個“傳遞信息、激發信心、對齊認知”的過程中,上游各個行業的 CEO 會愿意投入資金。那為什么他們愿意為我投資,而不是為別人?因為他們知道,我有能力把他們的產能消化掉,并通過下游市場把產品賣出去。事實上,英偉達的下游需求規模非常大,我們的出貨能力也很強,因此他們愿意在上游進行投入。
如果你看 ,很多人都會驚嘆它的規模和參會者陣容。那其實是一個 360 度的全景——整個 AI 生態幾乎都匯聚在一個地方,可謂包羅萬象。之所以大家都會來,是因為他們需要彼此交流。
我把這些人聚在一起,讓下游能看到上游,上游也能看到下游,同時讓所有人都能看到 AI 的最新進展。更重要的是,他們還能接觸到那些“原生 AI 公司”、各種 AI 初創企業,以及正在發生的各種創新,從而親眼驗證我平時告訴他們的那些判斷。我花了大量時間,以直接或間接的方式,讓我們的供應鏈、合作伙伴以及整個生態系統理解眼前的機會。
有些人會說:“Jensen,你的主題演講總是一項接一項發布新東西。”但實際上,我們的 Keynote 有一部分聽起來甚至有點“像在上課”,甚至有點“折磨人”。但這正是我有意為之。
我需要確保整個供應鏈,無論是上游還是下游以及整個生態,都能理解接下來會發生什么、為什么會發生、什么時候發生、規模有多大,并且能像我一樣,用系統性的方式去推演這些事情。
至于你說的“護城河”,我們確實具備為未來構建能力的條件。如果未來幾年市場規模達到萬億美元級別,我們是有供應鏈能力去承接的。
如果沒有我們現在這樣的覆蓋范圍和業務運轉速度——不僅僅是現金流,還有供應鏈的流動速度、庫存周轉——是做不到這一點的。沒有人會為一種架構去建立完整供應鏈,除非這個業務本身的周轉足夠快、規模足夠大。
我們之所以能夠維持這樣的規模,本質上是因為下游需求極其強勁。而這些需求,上游也看得到、聽得到,他們知道這一切正在發生。正是這一點,讓我們能夠以現在這樣的規模,去做我們正在做的事情。
Dwarkesh Patel:我想更具體地理解一下,上游供應鏈是否真的能跟上。過去很多年里,你們的營收幾乎每年都在翻倍增長,同時每年向世界提供的算力(FLOPS)也在三倍以上增長。
黃仁勛:在現在這個規模下還能做到翻倍增長,其實已經非常驚人了。
Dwarkesh Patel:確實。但如果看邏輯層面,你們是臺積電 N3 制程最大的客戶之一,在 N2 上也是最大客戶之一。而根據 SemiAnalysis 的數據,今年整個 AI 已經占到 N3 產能的 60%,明年可能會達到 86%。
如果你已經是市場里的主導者,要怎么實現“翻倍增長”?而且還是一年接一年地持續翻倍?我們現在是不是已經進入這樣一種階段:因為上游供給的限制,AI 算力的增長速度不得不放緩?你有沒有看到繞開這種瓶頸的可能性?從根本上來說,我們要怎么做到每年把晶圓廠規模再擴大一倍?
黃仁勛:在某種層面上,全球在某一時刻的瞬時需求,確實已經超過了上下游的總供給。甚至在任何一個瞬間,我們都可能被“水管工”數量限制住,這種情況確實發生過。
不過,這其實也是一種理想狀態。你會希望處在這樣一個行業里:瞬時需求大于整個行業的總供給。反過來的情況顯然就沒那么好了。如果供需差距拉得太大,或者某個關鍵環節嚴重短缺,那么整個行業就會“蜂擁而上”去解決它。比如你可以注意到,現在大家已經不太怎么討論 CoWoS 了。
原因就是過去兩年,我們對這個環節進行了大規模的“圍攻式擴張”:翻倍、再翻倍、連續幾輪翻倍。現在情況已經改善很多。臺積電現在非常清楚,CoWoS 的供給必須跟上邏輯芯片和內存的需求。他們正在以和邏輯制程相同的節奏擴展 CoWoS 以及未來的封裝技術。
這其實是件好事。因為在很長一段時間里,CoWoS 和 HBM 內存都屬于“特殊工藝”,但現在它們已經不再是小眾技術,而是主流計算基礎設施的一部分。
當然,我們現在也更有能力去影響更大范圍的供應鏈了。在 AI 革命剛開始的時候,我現在說的這些判斷,其實五年前就已經在講了。有些人相信并提前投入了,比如 Sanjay 和美光(Micron)團隊。我還清楚記得當時那次會議,我非常明確地講了這個行業會發生什么、為什么會發生,以及今天這些結果是怎么一步步走來的。他們選擇了加大投入。我們在 LPDDR 和 HBM 內存上深度合作,他們也做了大規模投資,這對公司來說顯然是非常成功的。有些人來得晚一點,但現在大家都已經進入這個體系了。
這些瓶頸問題都受到了高度關注。現在,我們正在提前數年預先解決這些瓶頸問題。比如過去幾年,我們和 Lumentum、Coherent 以及整個硅光子生態系統的合作,已經在重塑供應鏈結構。我們圍繞臺積電構建了一整套供應體系,并與他們在 COUPE 等技術上合作,發明了很多新技術,還把相關專利授權給供應鏈,以保持整個生態的開放性。
我們通過發明新技術、新工作流、新測試設備(比如雙面探測),以及對企業進行投資,幫助它們擴產,來提前準備供應鏈。你可以看到,我們其實是在主動塑造整個生態系統,讓供應鏈能夠承載未來的規模。
Dwarkesh Patel:看起來有些瓶頸比其他瓶頸更容易解決。
黃仁勛:其實我剛才已經說到最難的那個瓶頸了。
Dwarkesh Patel:哪個?
黃仁勛:水管工和電工。這其實也引出了我對“工作消失論”的擔憂。有些人認為 AI 會終結工作、消滅就業。但如果我們讓年輕人不再愿意當軟件工程師,那未來反而會出現軟件工程師短缺。
十年前也發生過類似的預測。當時一些“末日論者”說:“千萬別去做放射科醫生,這個職業很快會被 AI 取代。”你現在還能在網上看到這些視頻。但現實是,我們現在反而缺放射科醫生。
Dwarkesh Patel:如果從制造角度看,要每年把邏輯芯片產能翻倍,但最終無論是內存還是邏輯,都被光刻(EUV)設備限制。那你們怎么做到每年 EUV 數量翻倍?
黃仁勛:這些東西其實都不是“無法擴展”的。只要有需求信號,在兩三年時間內,它們都是可以擴展的。一旦你能造一臺,就能造十臺;一旦能造十臺,就能造一百萬臺。這些都不是本質上難以復制的東西。
Dwarkesh Patel:那你們會往供應鏈下游推進到什么程度?你會直接去找 ASML 說:“如果三年后英偉達做到 2 萬億美元規模,我們需要更多 EUV 光刻機”嗎?
黃仁勛:有些事情我會直接去溝通,有些是間接影響。如果我能說服臺積電,ASML 自然也會被說服。關鍵在于識別供應鏈中的“卡點”。只要臺積電被說服,EUV 的供給在幾年后自然會跟上。
我的核心觀點是:沒有哪個瓶頸會持續超過兩三年,所有瓶頸最終都會被解決。與此同時,我們還在不斷提升計算效率——10 倍、20 倍,在 Hopper 到 Blackwell 之間甚至是 30 到 50 倍的提升。
我們還在通過 CUDA 的靈活性不斷發明新算法、新技術,進一步提升效率。所以這些都不會讓我擔心。
真正讓我更在意的是下游問題,比如能源政策。如果能源受限,就無法建立新的工業體系。你不可能在沒有能源的情況下建立一個制造業帝國。
我們希望推動美國再工業化:把芯片制造、計算機制造、封裝產業帶回來,同時發展電動車、機器人,以及 AI 工廠。但這一切都離不開能源,而且能源基礎設施的建設是非常長期的。
芯片產能擴張是兩三年的問題,CoWoS 擴產也是兩三年的問題。
![]()
TPU 會動搖英偉達在 AI 算力上的統治嗎?
Dwarkesh Patel:我想聊聊你的競爭對手。如果看 TPU,你會發現世界上最頂尖的三個模型里,有兩個——Claude 和 Gemini——都是在 TPU 上訓練的。這對英偉達未來意味著什么?
黃仁勛:我們做的是完全不同的東西。英偉達構建的是“加速計算”,而不是某種單一的張量處理單元。加速計算可以用于非常多領域:分子動力學、量子色動力學、數據處理、結構化與非結構化數據分析,也可以用于流體力學和粒子物理。當然,也包括 AI。
加速計算的應用范圍要廣得多。雖然今天大家討論的焦點是 AI,而且它確實非常重要,但計算本身的范圍遠不止于此。
英偉達所做的,其實是重新定義了計算方式——從通用計算轉向加速計算。我們的市場覆蓋面,遠遠大于任何 TPU 或 ASIC 能觸及的范圍。
如果看我們的定位,我們是唯一一家可以加速各種不同應用的公司。我們擁有一個極其龐大的生態系統,各種框架和算法都可以運行在英偉達平臺上。
因為我們的計算機是設計給“別人來使用”的,所以任何運營者都可以購買并使用我們的系統。而很多自研系統并沒有這種靈活性,它們往往只能自己用,因為沒有為外部用戶設計。
正因為任何人都能使用我們的系統,我們才得以進入所有云平臺,包括 Google、Amazon、Azure 和 OCI。
如果你要把系統作為服務出租,那你必須擁有足夠大的客戶生態作為“下游承接”。如果是自用型部署,我們也可以幫客戶自己運營,比如我們為馬斯克和 xAI 做的那樣。
無論是在企業內部、還是跨行業使用,我們都能支持運營,比如 Lilly 這樣的公司,可以用我們的系統構建用于科學研究和藥物發現的超級計算機,我們也能幫助他們運行這些系統,并支持整個藥物研發和生物科學的計算流程。
我們能覆蓋的應用場景非常多,這是 TPU 做不到的。英偉達的 CUDA 不僅可以當作優秀的張量處理工具,它還能覆蓋數據處理、計算、AI 等整個生命周期。因此我們的市場機會更大,覆蓋范圍也更廣。
現在,因為我們支持全球所有應用,你可以在任何地方構建英偉達系統,并且知道一定會有客戶使用它。這是完全不同的一件事。
Dwarkesh Patel:你們的營收非常驚人,但并不是靠量子計算賺到每季度 600 億美元的,而是因為 AI 這一前所未有的技術正在以極快速度增長。所以問題是:對 AI 本身來說,什么架構更優?
我和一些 AI 研究人員聊過,他們說:“TPU 是一個巨大的脈動陣列,非常適合做矩陣乘法;而 GPU 更靈活,適合有分支結構或不規則內存訪問的情況。”
但 AI 本身不就是大量重復的矩陣乘法嗎?如果是這樣,你其實不需要為線程調度器、warp scheduler 或不同內存銀行之間的切換浪費芯片面積。
TPU 看起來就是為當前 AI 計算爆發式增長的核心需求量身定制的。我想知道你怎么回應這種說法。
黃仁勛:矩陣乘法確實是 AI 的重要組成部分,但它不是全部。
如果你想設計一種新的注意力機制,用不同方式拆分計算,或者發明一種全新的架構——比如混合 SSM 模型——你需要的是一個“通用可編程”的架構。
如果你想把擴散模型和自回歸模型融合在一起,你同樣需要可編程的系統。我們可以運行你能想到的任何模型,這正是優勢所在。
這種通用性讓新算法的發明變得更容易,而 AI 的進步,本質上正是由算法創新驅動的。
TPU 和其他芯片一樣,都受制于摩爾定律,大概每年提升 25%。但如果你想實現 10 倍甚至 100 倍的躍遷,就必須改變算法本身以及計算方式。
這正是英偉達的核心優勢。Blackwell 到 Hopper 能做到 50 倍提升,這不是靠摩爾定律實現的。當我第一次說 Blackwell 會比 Hopper 節能 35 倍時,沒人相信。后來有人甚至寫文章說我“保守了”,其實是 50 倍。
這種提升不可能僅靠硬件工藝實現。
我們是通過新模型來做到的,比如 MoE(專家混合模型),把計算并行化、解耦并分布到整個系統中。
如果沒有 CUDA 這種能力去深入開發新的 kernel,要做到這一點幾乎是不可能的。
真正關鍵的是:我們架構的可編程性,以及英偉達作為一個“極致協同設計公司”的能力。
我們甚至可以把計算下放到不同層級,比如 NVLink 互連層,或者 Spectrum-X 網絡層,在處理器、系統、互聯結構、庫函數和算法多個層面同時優化。
如果沒有 CUDA,我甚至不知道從哪里開始做這些事情。
Dwarkesh Patel:這引出了一個關于英偉達客戶群體的有趣問題。你們 60% 的收入都來自這五大超大規模云服務商。在客戶群體不同的另一個時代——比如做實驗的教授們——他們離不開 CUDA,沒法使用其他加速芯片,只需要搭載 CUDA 運行 PyTorch,讓所有程序實現最優適配即可。
但這些超算服務商有足夠的資源自行編寫內核。事實上,為了在自身特定架構上榨取最后 5% 的性能,他們也必須這么做。Anthropic 和谷歌主要使用自研加速芯片,或是 TPU、Trainium 芯片。就連采用 GPU 的 OpenAI,也自研了 Triton,因為他們需要專屬內核。他們摒棄了 cuBLAS 和 NCCL 庫,轉而使用 CUDA C++ 底層開發,搭建了一套可兼容其他加速芯片的自有技術棧。如果你的大部分客戶都有能力、也確實在替代 CUDA,那么 CUDA 究竟在多大程度上,才是推動前沿 AI 依托英偉達平臺發展的核心關鍵?
黃仁勛:CUDA 是一個龐大完善的生態系統。想要在任何計算機平臺上開發產品,優先基于 CUDA 搭建都是極為明智的選擇。因為這個生態足夠豐富,我們支持所有主流框架。即便你想開發定制內核也沒問題——比如我們就為 Triton 投入了大量技術支持,Triton 的后端集成了大量英偉達的核心技術。
我們樂于助力每一個框架發揮最大價值。市面上的框架數不勝數,除了 Triton,還有 vLLM、SGLang 等。如今還涌現出一批全新的強化學習框架,比如 Verl 和 NeMo RL。隨著模型后訓練與強化學習技術的發展,整個領域都在飛速擴張。因此,選擇基于 CUDA 搭建技術架構是最合理的,你能享受到成熟完善的生態支持。
你會清楚,一旦程序出現問題,大概率是自身代碼的漏洞,而非底層龐大代碼庫的故障。別忘了搭建這類系統時,你要處理的代碼量極其龐大。當程序運行異常時,你總希望問題出在自己身上,同時能完全信任底層硬件。誠然,我們的系統也存在不少漏洞,但經過反復打磨優化,至少能為開發者提供穩固的開發基礎。這是第一點:CUDA 生態的豐富性、可編程性與功能性。
第二點,對于任何開發者而言,最重要的莫過于龐大的裝機量。你希望自己編寫的軟件能在海量設備上運行,而非僅服務于自身。作為框架開發者,你的產品是為自家服務器集群,乃至所有廠商的服務器集群服務的。英偉達的 CUDA 生態,正是我們最核心的財富。
目前我們的 GPU 裝機量已達數億臺,各大云服務商均有部署,產品線覆蓋 A10、A100、H100、H200,以及 L 系列、P 系列等多個型號,規格形態十分豐富。如果是機器人企業,還能讓 CUDA 技術棧直接運行在機器人本體上。我們的產品幾乎無處不在。龐大的裝機量意味著,你開發的軟件或模型,能在所有場景中發揮作用,這一價值無可估量。
最后一點,我們的產品覆蓋所有云平臺,這是獨一無二的優勢。對于 AI 企業或開發者來說,往往無法確定最終合作的云服務商,也不確定部署場景。而我們的技術能適配所有平臺,也支持本地部署。正是生態的豐富性、裝機量的廣泛性,以及部署場景的靈活性,讓 CUDA 具備了不可替代的價值。
Dwarkesh Patel:這很有道理。我真正好奇的是,這些優勢對你的核心客戶而言究竟有多重要。這類優勢對很多人或許意義重大,但貢獻你大部分收入的,恰恰是那些有能力自建軟件棧的客戶。尤其在未來,AI 在具備嚴密驗證閉環、可進行強化學習的任務上會表現得愈發出色……如何寫出能在大規模場景下最高效實現注意力機制或多層感知機計算的內核,這本身就是一個驗證性極強的反饋閉環。
所有超大規模云服務商都能為自己編寫這類定制內核嗎?英偉達依然擁有出色的性價比,所以他們或許仍會選擇英偉達。但問題在于,這會不會最終變成單純比拼誰能在同等成本下提供更好的參數、更高的算力與內存帶寬。而過去,英偉達憑借 CUDA 的護城河,在整個 AI 軟硬件領域一直保持著業內最高的利潤率,超過 70%。關鍵問題是,如果你的大部分客戶都有能力自建技術棧,不再依賴 CUDA 護城河,你還能維持這樣的利潤率嗎?
黃仁勛:我們派駐到這些 AI 實驗室的工程師數量極其龐大,全程與他們協作,優化其技術棧。原因很簡單,沒有人比我們更了解自己的架構。這類架構并不像 CPU 那樣通用。CPU 就像一輛凱迪拉克,行駛平穩舒適,速度不會太快,誰都能輕松駕駛,配有定速巡航,一切都很簡單。
但在很多層面上,英偉達的 GPU、加速芯片就像 F1 賽車。我想每個人都能把它開到一百英里每小時,但要將其性能壓榨到極限,則需要極高的專業能力。我們運用大量 AI 技術來開發現有的內核。
我很確定,在未來相當長一段時間里,我們依然不可或缺。我們的專業技術常常能輕松幫助 AI 實驗室合作伙伴將其技術棧性能再提升一倍。經過我們對其技術棧或特定內核的優化,模型速度提升 2 倍、3 倍甚至 50% 的情況屢見不鮮。
這是極為可觀的提升,尤其考慮到他們所擁有的服務器集群規模,以及大量 Hopper 和 Blackwell 架構芯片。性能提升一倍,就意味著收入直接翻倍,這會直接轉化為營收。
英偉達的計算棧擁有全球無可匹敵的最優總擁有成本性價比。沒有任何一家廠商能向我證明,當下全球有任何一個平臺的性能總擁有成本比我們更出色。一家都沒有。事實上,現有基準測試已經說明了一切。Dylan 的 InferenceMAX 基準測試工具對所有人開放,卻沒有一家競品參與……谷歌 TPU 參與,亞馬遜 Trainium 也不參與。
我很歡迎他們使用 InferenceMAX,展示其所謂驚人的推理成本優勢,但這實在太難了,沒人愿意現身。還有 MLPerf 基準測試。我很期待 Trainium 能展示它們一直宣稱的 40% 性能優勢,也很想聽聽谷歌展示 TPU 的成本優勢。在我看來這完全站不住腳,根本毫無道理。從基本原理上就說不通。
所以我認為我們如此成功的原因很簡單,就是我們的總擁有成本極具優勢。其次,你提到我們 60% 的收入來自前五家云廠商,但其中大部分業務都是面向外部客戶的。比如 AWS 上的英偉達產品,絕大多數都服務于外部客戶,而非內部使用。Azure 的客戶顯然也全部是外部客戶,OCI 同樣如此。他們青睞我們的原因,是我們的覆蓋范圍足夠廣,能為他們帶來全球所有優質客戶,而這些客戶都基于英偉達平臺構建。所有這些公司選擇英偉達,正是因為我們的覆蓋范圍與通用性無人能及。
因此我認為,這一良性循環的核心在于龐大的裝機量、架構的可編程性、豐富的生態系統,以及全球數量眾多的 AI 公司——如今已有數萬家。如果你是一家 AI 初創企業,你會選擇怎樣的架構?你一定會選擇存量最充足的架構,而我們在全球的存量最大;你會選擇裝機量最廣的架構,而我們的裝機量遙遙領先;你也會選擇生態最豐富的架構。
這就是飛輪效應。原因在于幾點結合:第一,我們的單位成本算力極強,能實現最低的 token 成本;第二,我們的單位功耗算力全球領先。如果我們的合作伙伴搭建一座 1 吉瓦的數據中心,這座數據中心必須實現最大的營收與 token 產出,而 token 直接對應營收。企業都希望盡可能多地產出 token,最大化數據中心的營收。我們的架構是全球單位功耗產出 token 最多的。最后,如果你的目標是出租算力基礎設施,我們擁有全球最多的客戶。這就是這一循環能夠成立的原因。
Dwarkesh Patel:如果性價比、性能、單位功耗性能等優勢都如你所說屬實,那為什么像 Anthropic 這樣的公司,幾天前剛宣布與博通、谷歌達成數吉瓦規模的合作,采用 TPU,且其大部分算力都依賴這些方案?
顯然谷歌自身的算力也以 TPU 為主。所以我觀察到,這些大型 AI 公司的算力布局,曾經一度完全依賴英偉達,如今卻不再如此。我很好奇,如果紙面數據都站在英偉達這邊,他們為何還要選擇其他加速芯片?
黃仁勛:Anthropic 只是個例,并非行業趨勢。如果沒有 Anthropic,谷歌 TPU 根本不會有任何增長,其增長完全 100% 依靠 Anthropic。
如果沒有 Anthropic,亞馬遜 Trainium 也不會有任何增長,同樣 100% 依靠Anthropic。
我想這一點已是業內公認的事實。專用定制芯片的市場機會并不多,只有 Anthropic 這一家客戶。
Dwarkesh Patel:但 OpenAI 與 AMD 達成了合作……他們還在自研 Titan 加速芯片。
黃仁勛:沒錯,但我們都清楚,他們使用的算力絕大部分依然來自英偉達。我們今后仍會展開大量合作。我并不介意其他廠商嘗試使用別的產品。如果他們不去試試其他方案,又怎么能知道我們的產品有多出色?有時候,對比反而能讓人更清醒。我們也必須不斷證明自己,才能守住現在的位置。
行業里從不缺少夸大其詞的宣傳。你看看有多少專用 ASIC 芯片項目最終被取消了。就算下定決心要做一款 ASIC……也必須做出比英偉達更優秀的產品才行。想要超越英偉達,并沒有那么容易,實際上也并不劃算。
說真的,英偉達一定是在某些方面無可替代。憑借我們的規模和迭代速度,我們是全球唯一一家每年都能推出新一代產品的公司,而且每一代都實現巨大飛躍。
Dwarkesh Patel:我想他們的邏輯是:“我們不需要做得比你更好,只要性能差距不超過 70% 就行”,畢竟他們要為你 70% 的利潤率買單。
黃仁勛:不對,別忘了,就算是 ASIC 芯片,利潤率也相當高。就算英偉達的利潤率是 70%,ASIC 的利潤率也能達到 65%。你到底能省下多少錢?
Dwarkesh Patel:你是說博通這類廠商的利潤率?
黃仁勛:沒錯。你總要向供應商付費。在我看來,ASIC 的利潤率高得驚人。他們自己也很清楚這一點,甚至還對如此可觀的 ASIC 利潤率引以為傲。
回到你剛才的問題,原因其實很簡單。在很早之前,我們并沒有能力做到這一點。那時候,我并沒有真正意識到,打造像 OpenAI、Anthropic 這樣的頂級 AI 實驗室有多困難,也沒有意識到,這些實驗室需要來自供應商的巨額投資。我們當時沒有能力向 Anthropic 投入數十億美元,以換取他們使用我們的算力。但谷歌和 AWS 做到了,他們在初期投入巨額資金,作為交換,Anthropic 使用了他們的算力。我們在當時確實不具備這樣的條件。
我認為這是我的失誤,我沒有深刻認識到他們當時別無選擇——風投機構絕不會為一家 AI 實驗室投入 50 到 100 億美元,賭它能成長為今天的 Anthropic。這是我的疏忽。但即便我當時意識到了,以我們那時的體量,恐怕也無力做到。不過我不會再犯同樣的錯誤。
我很樂意投資 OpenAI,幫助他們擴大規模,我也認為這至關重要。后來當 Anthropic 找到我們時,我也很高興能成為投資方,助力他們發展。我們只是在最初階段無能為力。如果一切可以重來,如果當時的英偉達就擁有如今的規模,我一定會非常樂意參與投資。
![]()
英偉達為何不自己做超大規模云服務商?
Dwarkesh Patel:多年來,英偉達一直是 AI 領域賺錢、賺大錢的一方。現在你也在進行投資。據報道,你向 OpenAI 投資了高達 300 億美元,向 Anthropic 投資了 100 億美元。而如今這些公司的估值已經大幅上漲,而且我相信還會繼續走高。
這么多年來,你們一直為它們提供算力,也看清了行業的發展方向。幾年前,甚至在某些情況下一年前,這些公司的估值還只有現在的十分之一左右,而你們當時手握大量現金。其實完全存在另一種可能:要么英偉達自己成立一家大模型實驗室,投入巨資把這件事做成;要么更早地以當時的估值達成現在這樣的投資交易,而且你們完全有資金這么做。所以我其實很好奇,為什么沒有更早行動?
黃仁勛:我們是在有能力行動的第一時間就做了。只要條件允許,我們早就動手了,如果可以的話,我還想更早。當年 Anthropic 需要我們出手投資的時候,我們當時根本不具備那樣的條件,那樣做也不符合我們當時的經營邏輯。
Dwarkesh Patel:具體是為什么?是現金流方面的問題嗎?
黃仁勛:是的,是投資規模的問題。我們當時從未對外進行過如此大規模的投資,也沒有意識到有這個必要。我當時一直覺得,它們完全可以像其他所有公司一樣,去找風投融資,這不是理所當然的嗎?但后來才發現,它們想做的事情,靠風投根本做不成。OpenAI 想做的事,也不是風投能支撐起來的。這些我現在都明白了,但當時并沒有意識到。
不過這也正是它們的過人之處,這就是為什么它們足夠聰明。它們在當時就意識到必須走這樣的路。我也很高興它們這么做了。即便因為我們當時沒能出手,導致 Anthropic 不得不轉向其他投資方,我依然為這件事的發生感到高興。Anthropic 的存在對整個世界都是好事,我由衷為此開心。
Dwarkesh Patel:我想你們現在依然賺得盆滿缽滿,而且每個季度的利潤都在大幅增長。
黃仁勛:即便如此,心里有遺憾也很正常。
Dwarkesh Patel:既然走到今天這一步,你們又持續獲得巨額現金流,英偉達應該拿這些錢做什么?有一種思路是,現在已經出現了一整套中間生態,幫助這些 AI 實驗室把資本支出轉化為運營支出,讓它們可以租用算力。因為芯片本身非常昂貴,而隨著 AI 模型不斷優化,芯片在整個生命周期里能創造極高的價值。它們生成的 token 價值在不斷提升,但前期搭建成本極高。英偉達完全有資金承擔這類資本支出。事實上,有報道稱,你們為 CoreWeave 提供了最高 63 億美元的資金支持,并直接投資了 20 億美元。
那英偉達為什么不自己做云服務商?為什么不親自成為超大規模云廠商,直接對外出租算力?你們完全有足夠的現金去做這件事。
黃仁勛:這是公司的經營理念,我認為這一理念是明智的:只做必要之事,盡可能少做額外之事。對于構建我們的計算平臺這件事,如果我們不去做,我確信就不會有人做成。如果我們沒有承擔那些風險——沒有按現在的方式打造 NVLink,沒有搭建完整的技術棧,沒有構建如今這樣的生態,沒有在長達 20 年里持續投入 CUDA、即便大部分時間都在虧損——如果我們沒做這些,就不會有其他人來做。
如果我們沒有開發出所有 CUDA-X 庫,沒有讓它們覆蓋各個專業領域……十五年前,我們就開始推進領域專用庫,因為我們意識到,如果我們不開發這些庫,無論是光線追蹤、圖像生成,還是早期的 AI 模型、數據處理、結構化數據處理、向量數據處理,都不會有人去做。對此我十分確定。我們還開發了一個用于計算光刻的庫 cuLitho,如果我們不做,也不會有其他人做。所以說,如果沒有我們的努力,加速計算就不會取得今天這樣的進展。
這些事我們必須做。我們應該傾盡全力、全身心投入去做這些事。但另一方面,做云服務的廠商已經有很多了,就算我們不做,也會有別人來做。因此,秉持“只做必要之事,盡可能少做”的理念,至今仍是公司的核心準則。我做任何決策,都會遵循這一原則。
說到云服務,如果我們沒有扶持 CoreWeave 這類新興 AI 云廠商,它們根本不會存在。如果沒有我們的支持,CoreWeave 不會走到今天;Nscale、Nebius 也一樣。而現在它們都發展得非常出色。
這算是一種商業模式嗎?我們的原則依然是只做必要之事,盡可能少做。我們投資生態,是希望生態能夠繁榮發展,希望我們的架構、AI 技術能夠觸達更多行業、更多國家,讓整個世界都能建立在 AI 和美國技術棧之上。這正是我們追求的愿景。
你剛才提到的一點是,現在有很多優秀的大模型公司,我們會盡量投資所有這些公司。這也是我們的做法之一:我們不押注某一家贏家,而是支持所有人。這既是我們樂于做的事,也對我們的業務至關重要。我們刻意避免偏袒任何一方,投資其中一家,就會投資所有同類公司。
Dwarkesh Patel:你為什么刻意不押注贏家?
黃仁勛:首先,這不是我們該做的事。其次,英偉達剛成立時,市場上有 60 家 3D 圖形公司,最后只有我們活了下來。如果當時讓你從這 60 家里挑誰能成功,英偉達大概率會是最不被看好的那一個。
那是很早以前的事了,當時英偉達的圖形架構可以說是完全走錯了方向,不是小問題,而是根本性錯誤,開發者根本不可能支持這樣的架構,基本沒有成功的可能。我們當時基于合理的底層邏輯做了推導,最終卻得出了錯誤的方案。所有人都不看好我們,但我們還是走到了今天。
所以我足夠謙遜,也清楚這一點:不要去挑選贏家,要么讓它們各自發展,要么就全部支持。
Dwarkesh Patel:有一點我不太理解:你說“我們扶持這些新興云廠商,不只是因為它們是新玩家就刻意扶植”,但你又列舉了好幾家,說沒有英偉達它們就不會存在。這兩種說法怎么能自洽?
黃仁勛:首先,它們自己要有生存下去的意愿,主動來找我們尋求幫助。它們要有商業計劃、專業能力和創業熱情,自身顯然也要具備一定實力。但如果最終它們需要一些投資才能起步,我們就會伸出援手。當然,我們也希望它們能盡快跑通自己的商業飛輪。
你的問題其實是“我們想做金融投資生意嗎?”答案是否定的。市場上有專門做金融投資的機構,我們更愿意和這些機構合作,而不是自己變成投資方。我們的目標是專注于自身業務,保持商業模式盡可能簡潔,同時扶持好整個生態。
像 OpenAI 這樣的公司,在 IPO 之前需要 300 億美元規模的投資,而我們深度信任它們,我堅信它們會成為……它們現在已經是一家非凡的公司,未來更會成就卓越。世界需要它們存在,也希望它們存在,我個人也希望它們發展壯大。它們正處于上升期,我們理應支持它們擴大規模。這類投資我們會做,因為它們確實需要我們的幫助。但我們不會追求盡可能多的投資,而是盡可能少做。
Dwarkesh Patel:這個問題可能很直白,但這么多年來 GPU 一直處于短缺狀態,而且隨著模型效果越來越好,短缺情況還在加劇。
黃仁勛:我們的 GPU 確實供不應求。
Dwarkesh Patel:沒錯。英偉達在分配稀缺產能時,并不是只看誰出價更高,還會考慮“我們要讓這些新興云廠商活下來,分給 CoreWeave 一些,分給 Crusoe 一些,分給 Lambda 一些”。這么做對英偉達有什么好處?首先,你認同這種“拆分市場、多方分配”的說法嗎?
黃仁勛:不認同。你的前提本身就是錯的。我們在這些事情上考慮得非常周全,也十分謹慎。首先,如果你不下采購訂單,說再多都沒用。沒有采購訂單,我們什么都做不了。所以第一步,我們會和所有客戶全力溝通,做好需求預測,因為芯片生產周期很長,數據中心建設也需要很久。我們通過預測來平衡供需,這是首要工作。
其次,我們會盡可能和更多客戶做預測。如果你的數據中心還沒建好,或是某些配件沒到位,無法立刻啟用算力,我們可能會先把產能分配給其他已經就緒的客戶。這只是為了最大化工廠的出貨效率,會做一些調整。
除此之外,優先級基本就是先到先得。你必須下采購訂單,不下單就沒用。當然外界有很多傳言,比如有文章說拉里·埃里森(Oracle 董事長)和埃隆·馬斯克跟我一起吃飯,求我給 GPU。這事根本沒發生。我們確實一起吃了飯,氣氛也很好,但他們從來沒有求過 GPU,只需要正常下單就行。一旦下單,我們會盡力為他們協調產能。我們的規則并不復雜。
Dwarkesh Patel:明白了。聽上去是有排隊順序,根據數據中心是否就緒、下單時間來分配,而不是價高者得。這么做是有什么特別原因嗎?
黃仁勛:我們從來不會價高者得。絕對不會。
Dwarkesh Patel:為什么不直接價高者得?
黃仁勛:因為這是很差的商業做法。我們定好價格,客戶自主選擇買或不買。我知道芯片行業有些公司會在需求高漲時漲價,但我們不會,這從來不是我們的行事方式。大家可以信賴我們。我更愿意做一個可靠的伙伴,做整個行業的基石。你不需要去猜測揣摩,我給你報了價,就是這個價。就算需求暴漲,也不會變。
Dwarkesh Patel:從另一方面說,這也是你們和臺積電合作順暢的原因,對吧?
黃仁勛:是的。英偉達和臺積電合作就要滿 30 年了。我們之間甚至沒有正式法律合同,更多是一種默契與公道。有時候我占優,有時候他們占優;有時候我們拿到更好的條件,有時候則一般。但整體來看,這段合作關系無與倫比,我完全可以信任他們、依靠他們。
大家可以放心的一點是,今年我們會推出非常強大的 Vera Rubin,明年會有 Vera Rubin Ultra,后年是 Feynman,再之后的產品名稱我還沒公布。每一年,你都可以信賴我們會有新一代產品問世。你去找世界上任何一家做專用芯片的團隊試試看,有沒有哪家能讓你放心押上全部身家、相信他們每年都能如期交付,相信 token 成本每年都會大幅下降,像鐘表一樣穩定可靠。
我剛才說到臺積電,歷史上也沒有其他代工廠能做到這一點。但今天的英偉達可以。你每年都可以信賴我們。你想采購十億美元的 AI 算力,沒問題;一億美元,沒問題;一千萬美元,甚至只是一個機柜,都沒問題;就算只買一張顯卡,也沒問題。就算你想下單一千億美元的 AI 算力工廠,我們也接得住。目前全球只有我們一家公司能做到這一點。
臺積電也是如此。買一顆芯片,還是十億顆,都沒問題,我們只需要走規劃流程,用成熟的方式推進合作。英偉達能成為全球 AI 產業的基石,這個地位是我們花了幾十年時間、付出巨大投入與專注才換來的。公司的穩定、行事的一貫性,至關重要。
![]()
如何看待中國芯片技術?
Dwarkesh Patel:就在幾天前,Anthropic 發布了 Mythos Preview。這款 Mythos 模型甚至沒有公開發布,因為其具備極強的網絡攻擊能力,他們認為在修復所有零日漏洞之前,世界還未做好接納它的準備。該模型在各大主流操作系統、主流瀏覽器中發現了數千個高危漏洞,甚至在專為防范零日漏洞設計的 OpenBSD 系統中,找到了一個已存在 27 年的漏洞。
那么,如果中國企業、中國實驗室能夠獲得 AI 芯片,訓練出具備此類網絡攻擊能力的 Claude Mythos 級模型,并憑借更充足的算力運行數百萬個實例,這是否會對美國企業構成威脅?
黃仁勛:首先,Mythos 的訓練所使用的算力規模相當普通,只是研發團隊極為出色。其訓練所需的算力類型與總量,在中國完全可以輕松獲得。你必須先認清一個事實:中國本身就擁有大量芯片。
他們生產了全球 60% 以上的主流芯片,這是一個規模龐大的產業。他們擁有全球頂尖的計算機科學家,你也清楚,全球各大 AI 實驗室中,半數研究人員都來自中國,中國占據了全球 AI 研究者的半壁江山。
所以問題在于,考慮到他們已掌握的各類資源——充沛的能源、充足的芯片、絕大多數 AI 研究者——如果你真的對此感到擔憂,怎樣做才能構建一個安全的世界?
打壓他們、將其塑造成敵人,顯然不是最優解。他們確實是競爭對手,我們也希望美國能夠勝出。但我認為,開展對話與學術交流,或許才是最安全的方式。而由于當前我們將中國視為對手的態度,這一關鍵領域的交流嚴重缺失。美國的 AI 研究者與中國的 AI 研究者必須保持溝通,雙方必須就 AI 的禁用場景達成共識,這一點至關重要。
至于利用 AI 查找軟件漏洞,這本就是 AI 的應有功能。它必然會發現大量軟件漏洞,畢竟軟件中本就存在無數漏洞,AI 系統自身也不例外。我很高興 AI 已經發展到能大幅提升我們工作效率的水平。
有一點常常被忽視:圍繞網絡安全、AI 安全、隱私保護與 AI 倫理的生態體系極為豐富。大量 AI 初創企業正在構建未來安全格局——一個超強 AI 主體,由數千個 AI 智能體守護其安全,這一未來必然會實現。
放任一個無人監管的 AI 智能體肆意運行,這種想法本身就很荒謬。我們深知,這一生態需要蓬勃發展,而它離不開開源技術、開源模型與開源技術棧,只有這樣,全球優秀的 AI 研究者與計算機科學家才能構建出強大且安全的 AI 系統。因此,我們必須確保開源生態充滿活力,這一點不容忽略。而大量開源成果正來自中國,我們不應扼殺這一生態。
針對中國問題,我們當然希望美國擁有盡可能充足的算力。目前我們受限于能源供應,但已有大量團隊著手解決,絕不能讓能源成為國家發展的瓶頸。同時,我們更要確保全球 AI 開發者都基于美國技術棧開展研發,讓 AI 領域的進步——尤其是開源成果——反哺美國生態。如果世界分裂為兩大生態:開源生態僅運行于外國技術棧,封閉生態依附于美國技術棧,這對美國而言將是極度愚蠢的結果。
Dwarkesh Patel:沒錯,中國擁有算力,但有估算顯示,由于芯片制造出口管制,他們無法獲得 EUV 光刻機,只能生產 7nm 工藝芯片,實際可用算力僅為美國的十分之一。
那么,他們最終能否訓練出 Mythos 級別的模型?答案是肯定的。但關鍵在于,美國憑借更充足的算力,實驗室能率先突破這類技術。就像 Anthropic 率先研發出 Mythos,他們選擇先保密一個月,向美國企業開放權限,協助修復所有漏洞后再公開發布。
此外,即便他們訓練出同類模型,規模化部署能力也至關重要。對于網絡攻擊而言,擁有一千個實例與一百萬個實例,危險程度天差地別,推理算力的作用極為關鍵。事實上,中國擁有大量頂尖 AI 研究者,這一點反而更令人擔憂——決定這些研發人員效率的核心,正是算力。
你去詢問美國任何一家 AI 實驗室,他們都會說算力是最大瓶頸。深度求索(DeepSeek)創始人、通義千問團隊負責人等都曾表示,算力制約了他們的發展。那么問題來了:讓擁有更多算力的美國企業率先突破 Mythos 級技術,為社會做好防御準備,再等到算力較弱的中國追趕上來,這樣難道不是更安全嗎?
黃仁勛:我們理應始終保持領先,擁有更多算力。但你描述的理想場景,需要將對方的算力壓制到零才能實現。只要他們擁有一定規模的算力,核心問題就變成:究竟需要多少算力才能達成目標?
中國的算力規模極為龐大,是全球第二大計算市場。如果他們整合現有算力,完全能夠匯聚出驚人的總量。
Dwarkesh Patel:事實真的如此嗎?
黃仁勛:我來說明真相。中國的能源儲備極為充足,不是嗎?AI 本身是并行計算問題,既然能源成本低廉,他們為什么不能用四倍、十倍數量的芯片堆疊算力?只要愿意,即便只是 7nm 芯片,他們也能通過大規模集群實現算力突破。
他們的芯片制造能力位居全球前列,半導體行業都清楚,他們壟斷了主流芯片市場,產能甚至出現過剩。認為中國無法獲得 AI 芯片的說法,完全是無稽之談。
當然,如果你問我,若全球其他國家完全沒有算力,美國是否會更具優勢?答案是肯定的,但這根本不現實。中國早已擁有充足算力,遠超你所擔憂的風險閾值。
我認為你誤解了 AI 的五層架構,最底層便是能源。能源充足可以彌補芯片性能短板,芯片充足也能抵消能源限制。比如美國能源供應緊張,這也是英偉達持續迭代架構、推進極致協同設計的原因——在能源有限、芯片出貨量受限的情況下,實現極致的每瓦算力。
但如果能源近乎無限、成本低廉,每瓦性能便不再重要。即便使用老舊芯片也足夠應對,7nm 芯片的性能基本等同于 Hopper 架構。要知道,當前主流模型大多基于 Hopper 架構訓練,7nm 芯片完全夠用。充沛的能源,正是他們的核心優勢。
Dwarkesh Patel:但問題在于,他們能否制造出足夠數量的芯片。
黃仁勛:他們完全可以。證據就在眼前:華為剛剛創下公司史上最佳年度業績。
Dwarkesh Patel:但這無法改變一個事實:最先進的 HBM 芯片必須依賴 EUV 光刻機制造。
黃仁勛:這一說法完全錯誤。他們可以像我們通過 NVL72 技術互聯芯片一樣,將大量芯片集群聯動,而且他們已經展示了硅光互聯技術,能夠將所有算力整合為一臺巨型超級計算機。
事實是,中國的 AI 研發進展十分順利。全球最頂尖的 AI 研究者,在算力受限的情況下,反而研發出了極為精妙的算法。我之前提到過,摩爾定律每年推進約 25%,而優秀的計算機科學能讓算法性能提升 10 倍。也就是說,頂尖的算法研發才是核心驅動力。
混合專家模型(MoE)無疑是偉大發明,各類注意力機制也有效降低了算力消耗。我們必須承認,AI 領域的大部分進步源于算法突破,而非單純的硬件升級。如果大部分進展來自算法、計算機科學與編程實現,那么中國龐大的 AI 研究者隊伍,就是他們的核心優勢。DeepSeek 的突破絕非小事。
Dwarkesh Patel:為什么這么說?目前像 DeepSeek 這樣的開源模型,可以在任何加速芯片上運行,未來為何會改變這一現狀?
黃仁勛:假設未來不再兼容,假設模型專為中國架構優化,我們的技術棧就會陷入劣勢。你剛才描述的場景,在我看來本是好消息:一家企業研發的 AI 模型,最優運行于美國技術棧。但你卻將其預設為壞消息。而我要告訴你真正的壞消息:如果全球 AI 模型都最優適配非美國硬件,對我們而言將是巨大危機。
Dwarkesh Patel:我沒有看到任何證據表明,芯片之間的遷移存在巨大壁壘。美國實驗室的模型本就可以在各大云平臺、各類加速芯片上運行——
黃仁勛:我就是最好的證據。你把專為英偉達優化的模型放到其他芯片上運行試試。
Dwarkesh Patel:但美國實驗室確實在這么做。
黃仁勛:但性能絕不會更優。英偉達的成功就是最有力的證明:AI 模型基于我們的技術棧研發,也在我們的平臺上表現最佳,這一邏輯難道難以理解嗎?
Dwarkesh Patel:Anthropic 的模型既能在 GPU 上運行,也能適配 Trainium 與 TPU。
黃仁勛:這需要投入大量工程資源進行適配。但放眼全球南方國家、中東地區,如果開箱即用的 AI 模型都最優運行于他國技術棧,你還要堅稱這對美國有利,那未免太過荒謬。
Dwarkesh Patel:我還是無法理解你的邏輯。假設中國企業率先研發出下一代 Mythos 模型,率先發現美國軟件的安全漏洞,即便他們使用英偉達硬件開展研究,并將模型推向全球市場,這對我們有什么好處?
黃仁勛:沒有任何好處。
Dwarkesh Patel:沒錯。
黃仁勛:這絕不是好事,我們必須避免這種情況發生。
Dwarkesh Patel:你為何認為芯片完全可替代?如果我們不向其出售算力,他們就只能使用自己的芯片。
黃仁勛:這一觀點完全站不住腳,現實證據就擺在眼前:中國的芯片產業規模極為龐大。
Dwarkesh Patel:你的核心論點是,他們擁有充足的待利用能源,需要用芯片填滿這些算力基礎設施。
黃仁勛:而且他們擅長制造芯片。
Dwarkesh Patel:我相信他們最終有望實現產能超越,但關鍵就在未來這幾年。
黃仁勛:你所說的關鍵年份,具體是指什么?
Dwarkesh Patel:未來幾年。即將出現能夠實施大規模網絡攻擊的 AI 模型。
黃仁勛:如果未來幾年至關重要,我們就更要確保,在這一關鍵時期,全球所有 AI 模型都基于美國技術棧研發。
Dwarkesh Patel:即便基于美國技術棧研發,又如何阻止他們憑借更先進的技術,發起等同于 Mythos 的網絡攻擊?
黃仁勛:這一點沒有絕對的保障。
Dwarkesh Patel:但我們率先掌握技術,就能提前做好防御。
黃仁勛:你想想,為什么要犧牲 AI 產業的一個環節,去成全另一個環節?AI 產業有五大層級,每一層都必須成功,其中最關鍵的其實是 AI 應用層。你為何要執著于單一模型、單一公司?這毫無意義。
Dwarkesh Patel:因為正是這些模型催生出了極強的攻擊性能力,而運行它們需要算力支撐。
黃仁勛:真正起作用的是能源、芯片,以及龐大的 AI 研究者生態。
Dwarkesh Patel:但 AI 既能用于正面用途,也能帶來危害。但如果這份算力能跑起一個可以對全美軟件發起零日漏洞攻擊的模型,這怎么不算一種武器?
黃仁勛:首先,解決這個問題的方式,是和研究者對話、和中國對話、和所有國家對話,確保人們不會以這種方式濫用技術。這種對話必須發生,明白嗎?這是第一點。
第二,我們也要確保美國保持領先,確保 Vera Rubin、Blackwell 這些架構在美國海量部署、充足供應。顯然我們的成果已經說明了這一點,供應極其充裕。我們擁有強大的算力、頂尖的 AI 研究者,我們理應保持領先。
但同時我們也必須認識到,AI 不只是模型。AI 是一個五層架構,每一層都至關重要,我們希望美國在每一層都贏,包括芯片層。長期來看,放棄整個市場,不可能讓美國在芯片層、在計算技術棧上贏得科技競賽。這是不爭的事實。
Dwarkesh Patel:那核心問題就變成:現在向他們出售芯片,如何幫助我們長期取勝?特斯拉長期向中國出售非常優秀的電動車,iPhone 也在中國熱銷,產品都很出色,但并沒有形成鎖定。中國依然造出了自己的電動車,而且占據主導,智能手機也是一樣。
黃仁勛:我們今天對話一開始,你就承認英偉達的地位截然不同,你還用了“護城河”這個詞。對我們公司而言,最重要的就是以開發者為核心的繁榮生態,而全球 50% 的 AI 開發者都在中國。美國不應該放棄這部分資源。
Dwarkesh Patel:但美國也有大量英偉達開發者,這并不妨礙美國實驗室未來使用其他加速芯片。事實上,他們現在就在混用其他芯片,這本身沒問題。我不明白為什么在中國就不一樣——就算你賣給他們英偉達芯片,他們照樣可以像谷歌用 TPU 一樣,同時用自己的芯片。
黃仁勛:我們必須持續創新,而且你可能也知道,我們的市場份額一直在增長,而非萎縮。那種“就算我們在中國參與競爭,最終也會丟掉市場”的前提……你不是在跟一個天生的失敗者說話。這種失敗者心態、失敗者邏輯,我無法認同。
我們不是汽車。今天買這個品牌、明天換那個品牌,很容易。計算產業不是這樣的。x86 能形成壟斷、ARM 擁有極強黏性,都是有原因的。這類生態很難被替代,替換需要耗費巨大的時間和精力,大多數人根本不愿意這么做。所以我們的職責是持續培育生態、不斷推進技術,從而在市場中具備競爭力。
基于你描述的前提就放棄一個市場,我完全無法接受,這毫無道理。因為我不認為美國是失敗者,我們的行業也不是。這種認輸的論調、失敗主義的心態,我無法理解。
Dwarkesh Patel:我想核心分歧已經慢慢清晰了,謝謝你陪我把這些繞來繞去的問題聊透。
黃仁勛:核心問題在于你走向了極端。你的論證從極端假設出發:只要在這個狹窄窗口期給他們一丁點兒算力,我們就會滿盤皆輸。這種極端化的說法很幼稚。
Dwarkesh Patel:讓我把我的觀點說清楚。關鍵并不在于存在某個關鍵算力閾值,而是任何增量算力都是有幫助的。算力越多,就能訓練出更好的模型。
黃仁勛:那我也希望你承認,對美國科技行業而言,任何增量銷售都是有利的。
Dwarkesh Patel:我其實并不認同……如果跑在這些芯片上的 AI 模型具備網絡攻擊能力,或是芯片被用來訓練攻擊性模型并大規模部署,它雖然不是核武器,但確實在支撐某種武器化能力。
黃仁勛:按你的邏輯,你大可以把這套說法套在微處理器、DRAM,甚至電本身身上。
Dwarkesh Patel:但事實上,我們確實對制造最先進 DRAM 相關的技術實施出口管制,對中國各類芯片制造設備都有各式各樣的管制。
黃仁勛:我們依然向中國出售大量 DRAM 和 CPU,而且我認為這是正確的。
你能否認我們曾經在該市場擁有巨大份額,如今卻已不再占據優勢嗎?你也要承認,中國市場約占全球科技產業的 40%。對美國科技行業而言,放棄這個市場,是對國家的損害,是對國家安全的損害,是對美國技術領導力的損害,僅僅為了某一家公司的利益,這完全說不通。
Dwarkesh Patel:我有點困惑。你好像在同時表達兩種觀點:一是只要允許我們參與競爭,我們就能憑借更優秀的芯片在與中國競爭中取勝;二是就算沒有我們,他們照樣會做一模一樣的事情。這兩件事怎么可能同時成立?
黃仁勛:顯然可以同時成立。沒有更好選擇時,人就會退而求其次。這有什么不符合邏輯的?再合理不過了。
Dwarkesh Patel:他們想要英偉達芯片,就是因為性能更好。
黃仁勛:沒錯。
Dwarkesh Patel:更好就意味著更強算力,更強算力就能訓練出更好的模型。
黃仁勛:不,不只是算力更強。更好是因為更容易編程,我們擁有更完善的生態。但無論優勢體現在哪方面……我們當然會向他們提供算力,那又如何?事實是,美國會從中受益。別忘了,我們鞏固了美國的技術領導力,讓更多開發者基于美國技術棧開發。當 AI 模型向全球擴散時,美國技術棧會成為最優選擇,我們可以持續推進并輸出美國技術。我相信這是正面價值,也是美國技術領導力至關重要的一部分。
而你所主張的政策,已經導致美國電信行業在全球范圍內被政策排擠,最終甚至失去了對自身電信產業的掌控。我不認為這是明智之舉。這種思路有些狹隘,并且會帶來我剛才所說的一系列意外后果,而你似乎很難理解這一點。
Dwarkesh Patel:好,我們再退一步。核心矛盾顯然在于潛在收益與潛在風險的權衡,我們要判斷收益是否值得風險。我希望你能承認潛在風險:算力是訓練強大模型的投入,而強模型確實具備網絡攻擊這類強攻擊性能力。美國公司率先達到 Mythos 這種級別是件好事,他們選擇暫時不公開這類能力,讓美國企業和政府先加固軟件安全,再對外披露。
如果中國擁有更多算力,或是更充足的集群算力,更早造出 Mythos 級模型并大規模部署,后果將非常嚴重。這件事至今沒有發生,原因之一就是美國有英偉達這樣的企業,提供了更充足的算力。這就是向中國出售芯片的風險。我們先不談收益,你是否承認這是一種潛在代價?
黃仁勛:我同樣可以告訴你另一個潛在代價:我們放任 AI 技術棧中最重要的一層——芯片層——放棄全球第二大市場,讓他們有機會建立規模、培育自有生態,讓未來的 AI 模型朝著與美國技術棧完全不同的方向優化。當 AI 向全球擴散時,他們的標準、他們的技術棧會因為模型開源而變得比我們更具優勢。
Dwarkesh Patel:我只是足夠相信英偉達的內核工程師和 CUDA 團隊,認為他們完全可以做優化——
黃仁勛:你也清楚,AI 不只是內核優化那么簡單。
Dwarkesh Patel:當然,但能做的事情還有很多,比如把模型蒸餾優化到更適配你們芯片的形態。
黃仁勛:我們會盡最大努力。
Dwarkesh Patel:你們掌握著全套軟件。很難想象中國生態能形成長期鎖定,哪怕他們的開源模型在一段時間內略占優勢。
黃仁勛:中國是全球開源軟件最大貢獻者,這是事實。中國是全球開源模型最大貢獻者,這也是事實。而目前這些成果都構建在美國技術棧、英偉達技術棧之上,這同樣是事實。
AI 技術棧的五個層級都至關重要,美國理應在全部五個層級取得勝利,它們缺一不可。其中最重要的,無疑是 AI 應用層。真正滲透進社會、被廣泛使用的那一層,將從這場產業革命中獲益最多。但我的核心觀點是,每一層都必須成功。
如果我們把整個國家嚇得以為 AI 就是某種核彈,讓所有人厭惡 AI、恐懼 AI,我不知道這對美國有什么幫助,反而是在傷害它。如果我們把所有人都嚇離軟件工程崗位,宣稱 AI 會消滅所有相關工作,最終導致美國沒有軟件工程師,那同樣是在損害國家利益。
如果我們把所有人都嚇出放射科,讓沒人愿意成為放射科醫生,理由是計算機視覺完全免費、AI 不會比醫生做得更差,那我們就徹底誤解了職業與任務的區別。放射科醫生的工作是患者照護,讀片只是其中一項任務。如果我們對此產生如此深刻的誤解,把所有人都嚇出醫學院,我們就會面臨放射科醫生短缺、醫療質量下降的局面。
所以我想表達的是,當你把前提推向極端,非黑即白、非零即無窮,最終只會以不實的方式制造恐慌。現實并非如此。我們希望美國領先嗎?當然希望。我們需要在技術棧的每一層都保持領先嗎?當然需要,毫無疑問。今天你在討論 Mythos,因為它很重要,這很好。
但我可以預測,幾年之后,當我們希望美國技術棧、美國科技向全球輸出——進入印度、中東、非洲、東南亞——當國家希望出口技術、輸出標準時,我希望到那天我們能再進行一次同樣的對話。我會清清楚楚地告訴你今天的討論,告訴你你所主張的政策與想象,是如何讓美國毫無必要地放棄了全球第二大市場。
我們不該主動放棄。就算最終輸掉,那也是競爭結果,但為什么要拱手相讓?現在沒有人主張非此即彼。我們理應在本土保有最先進、最充足的技術,并且率先應用。但我們同時也應該在全球范圍內競爭并取勝。這兩件事完全可以并行,它需要分寸、需要成熟理性,而不是極端絕對化。世界本就不是非黑即白的。
Dwarkesh Patel:爭論的關鍵就在這里。幾年后,他們會打造出適配自家最優芯片的模型,這些芯片會出口到世界各地,進而確立標準。但正如我們所說,由于 EUV 出口管制,你們會一路推進到 1.6nm 工藝,而他們幾年后依然會停留在 7nm。
在他們國內或許說得通:“我們能源充足,可以大規模制造,繼續用 7nm 就行。”但說到出口,他們的 7nm 芯片必須和你們的 1.6nm 芯片競爭。他們的模型必須深度優化到 7nm 平臺,以至于在 7nm 上跑比在你們 1.6nm 上效果更好才行。
黃仁勛:那我們不妨看看事實。Blackwell 的光刻工藝比 Hopper 先進 50 倍嗎?有 50 倍嗎?差得遠呢。我一再強調,摩爾定律已經失效。從 Hopper 到 Blackwell,單看晶體管本身提升大約 75%,前后相隔三年,也就 75%。但 Blackwell 的整體能力是 Hopper 的 50 倍。
我想說的是,架構至關重要,計算機科學至關重要。半導體物理固然重要,但計算機科學更加關鍵。AI 的進步很大程度來自計算棧,這也是 CUDA 如此高效、如此受青睞的原因。它是一套生態、一種計算架構,擁有極高的靈活性。哪怕你想徹底重構架構——做出混合專家模型、擴散模型,或是去中心化的新結構——都可以輕松實現。
事實是,AI 既依賴底層架構,也同樣依賴上層技術棧。我們擁有為自身生態優化的架構與軟件棧,這顯然是巨大優勢,就像我們今天開場時談到的,英偉達的生態無比豐富。為什么開發者總是優先選擇 CUDA 編程?他們確實如此,中國的研究者也一樣。
但如果我們被迫退出中國市場,這首先就是一項政策失誤,顯然會產生反噬,對美國造成不利后果。這反而扶持、加速了他們的芯片產業,迫使他們的整個 AI 生態轉向自研架構。現在回頭還不算晚,但影響已經發生。
未來你會看到,他們顯然不會一直卡在 7nm。他們擅長制造,會從 7nm 繼續向前迭代。5nm 和 7nm 之間有 10 倍差距嗎?答案是否定的。架構重要,網絡互聯重要——這也是英偉達收購 Mellanox 的原因。能源同樣重要。所有這些因素都在起作用,并非你試圖簡化的那樣簡單。
![]()
英偉達為何不打造多種不同的芯片架構?
Dwarkesh Patel:現在你已經占據了 3nm 工藝的大部分產能,未來還會主導 2nm 工藝,那么你有沒有可能回過頭利用 7nm 這類成熟工藝的閑置產能,說一句:“AI 需求實在太旺盛,先進制程擴產跟不上,我們干脆用今天掌握的數值計算技術和你剛才提到的各類改進,重新打造一版 Hopper 或者 Ampere 架構?”你覺得 2030 年之前會出現這種情況嗎?
黃仁勛:沒有這個必要。原因在于,每一代產品的架構提升遠不止晶體管尺寸這么簡單,它還涉及到工程設計、封裝堆疊、數值計算和系統架構。
產能不足就輕易退回到舊工藝,這種研發成本是沒人承受得起的。我們有能力向前迭代,但沒有余力回頭重做。當然我們可以做個思想實驗:如果有一天,我們徹底沒有辦法再擴大先進制程產能,我會不會回頭用 7nm?那肯定會,毫不猶豫。
Dwarkesh Patel:有個朋友問過我一個問題:英偉達為什么不同時推進多個完全不同架構的芯片項目?比如做 Cerebras 那樣的晶圓級芯片,做 Dojo 那種超大規模封裝,甚至做一套不依賴 CUDA 的架構。你們有資金也有人才,完全可以并行推進。既然 AI 和架構的未來走向充滿未知,為什么要把所有雞蛋放在一個籃子里?
黃仁勛:我們當然可以這么做,只是我們沒有找到更優的方案。這些方向我們全都在模擬器里驗證過,結果證明更差,所以我們不會付諸實踐。我們只聚焦在真正有價值的項目上。除非未來負載形態發生根本性變化——我指的不是算法,而是市場需求驅動的實際負載模式——我們才會考慮增加其他類型的加速芯片。
舉個例子,我們最近收購了 Groq,并會把它整合進 CUDA 生態。之所以這么做,是因為 token 的價值已經大幅提升,可以出現不同定價的 token 服務。就在幾年前,token 還幾乎是免費的,或者價格極低。但現在客戶群體出現分層,不同客戶需要不同的響應效果。比如我們的軟件工程師這類用戶,如果能提供響應更迅捷的 token,大幅提升他們的工作效率,他們愿意為此付費。
這個市場直到最近才真正成型。所以我們現在可以針對響應速度,對同一模型做市場細分。這也是我們拓展性能邊界、推出一類低吞吐量但高響應速度推理芯片的原因。在此之前,行業一直認為吞吐量越高越好。但我們認為,未來會出現高單價 token 的市場,即便算力工廠吞吐量更低,單價也足以彌補差距。
這是我們拓展架構的唯一原因。除此之外,從架構本身來看,如果我有更多資金,只會進一步加碼英偉達現有架構。
Dwarkesh Patel:最后一個問題。假如深度學習革命從未發生,英偉達現在會在做什么?
黃仁勛:做加速計算,和我們一直以來做的事情一樣。公司成立的初衷就是,摩爾定律逐漸走到盡頭,通用計算雖然用途廣泛,但在很多計算場景下效率并不理想。
于是我們把 GPU、CUDA 與 CPU 結合,讓 CPU 的工作負載可以被加速。把不同的代碼內核或算法卸載到 GPU 上運行,應用性能就能提升 100 倍、200 倍。
這些能力能用在哪里?
顯然,它適用于工程、科研、物理模擬、數據處理、計算機圖形、圖像生成等方方面面。就算今天 AI 不存在,英偉達依然會是一家規模極大的公司。
背后的原因非常簡單:通用計算的持續擴展能力基本已經見頂,而實現突破的重要路徑就是領域專用加速。我們最早從計算機圖形起步,但可覆蓋的領域還有很多,比如粒子物理、流體模擬、結構化數據處理,各類算法都能從 CUDA 中受益。
我們的使命,一直是把加速計算帶向全世界,拓展通用計算無法勝任的應用類型,把性能擴展到能助力科學突破的級別。早期應用就包括分子動力學、能源勘探的地震處理、圖像處理等,這些領域用通用計算實在太過低效。
如果沒有 AI,我會很遺憾。但正是我們在計算領域的突破,才讓深度學習得以普及,讓全球任何一位研究者、科學家、學生,都能通過 PC 或者 GeForce 顯卡做出了不起的科研成果。這個核心使命從未改變,分毫未變。
如果你看過 GTC 大會,開場很長一段內容都和 AI 無關。計算光刻、量子化學研究、數據處理相關成果,全都和 AI 沒有關系,但它們依然至關重要。我知道 AI 備受關注、令人興奮,但還有很多人在做非 AI 領域的重要工作,張量計算也并非唯一的計算方式。我們希望幫助每一個人。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.