網易首頁 > 網易號 > 正文 申請入駐

DeepSeek V4登頂了!梁文鋒把四大技術秘方公開

0
分享至


智東西
作者 楊京麗
編輯 李水青

智東西4月24日報道,今天,DeepSeek-V4剛開源就迅速登頂了Hugging Face開源模型榜,相關技術報告也大方披露,覆蓋華為昇騰與英偉達芯片適配、模型架構升級、預訓練和后訓練環節優化等豐富的技術細節,非常值得仔細品讀。


DeepSeek-V4最顯著的提升,除了在推理、知識、代碼能力上全線抬升,整體表現比肩GPT-5.4、Claude Opus 4.6等頂級閉源模型;還在于該模型首次將“百萬上下文”作為默認能力開放,在此設置下單token推理FLOPs相比DeepSeek-V3.2暴降73%,KV cache僅為其10%,大幅降低使用成本。

基礎設施方面,DeepSeek-V4從訓練到推理的全鏈路,已經完整適配了華為昇騰NPU,其自研的細粒度專家并行方案“MegaMoE”,能夠在NVIDIA GPU和華為昇騰NPU上實現1.50-1.73倍的加速

DeepSeek-V4的訓練過程相比前代模型有一些差異化。預訓練中,DeepSeek-V4引入了“樣本級注意力掩碼”機制,語料總規模超過32萬億tokens,涵蓋數學內容、代碼、網頁文本、長文檔等多種高質量類別。后訓練中,DeepSeek-V4則將原先的混合強化學習階段替換為“基于策略的蒸餾”,確保訓練更為可控。


開源地址:

https://huggingface.co/collections/deepseek-ai/deepseek-v4

報告地址:

https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

一、基礎設施再創新,全鏈路高效適配華為昇騰

DeepSeek-V4在基礎設施方面提升較為明顯,采用專家混合(MoE)技術,可通過專家并行化(EP)實現加速

然而,EP需要復雜的節點間通信機制,并對互連帶寬和延遲提出較高要求。為緩解EP中的通信瓶頸,并在降低互連帶寬需求的同時,提升端到端性能,DeepSeek提出了一種細粒度EP方案“MegaMoE”:將通信與計算功能整合為單一流水線內,實現通信與計算的重疊執行。

DeepSeek-V4在英偉達GPU和華為昇騰NPU平臺上驗證了細粒度專家并行(EP)方案。與性能較強的非融合基線相比,該方案在通用推理任務中實現了約1.50-1.73倍的加速,在延遲敏感的場景中最高可達1.96倍。相關CUDA實現已開源,名為MegaMoE2,作為DeepGEMM的一個組件提供。


將專家調度(Dispatch)與Linear-1重疊,將Linear-2與Combine重疊。EP方案通過將專家拆分并按波次調,實現了更細粒度的重疊。

在實際應用中,復雜的模型架構原本會生成數百個細粒度的Torch ATen運算符。為此,DeepSeek采用TileLang開發了一組融合內核,用以替代其中絕大多數運算符,把碎片化的小kernel融成大塊,調用開銷從百微秒壓到1微秒以內,還引入Z3形式化求解器做優化驗證。做到比特級可復現,同一token不管在batch哪里都得到同樣結果,同一模型每次運行完全一致,這對大模型調試是保命設計。

DeepSeek將FP4(MXFP4)量化應用于兩個關鍵部分:第一是MoE專家權重,這部分是GPU顯存占用的主要來源之一;第二是CSA中索引器的Query-Key(QK)路徑,在該路徑中,QK激活值的緩存、加載以及乘法計算全部在FP4精度下完成,從而在長上下文場景中加速注意力分數的計算。

訓練框架建立在為DeepSeek-V3開發的可擴展且高效的基礎設施之上。在訓練DeepSeek-V4時,DeepSeek繼承了這一基礎,同時引入了多項關鍵創新,適配其新的架構組件——包括Muon優化器、mHC,以及混合注意力機制,并在此過程中保持高效的訓練效率與穩定性。


二、架構升級,突破長文本計算效率瓶頸

推理模型興起后,業內建立了一種新的“測試時擴展”范式,顯著推動了大型語言模型的性能提升。然而,這種擴展范式從根本上受限于傳統注意力機制,難以處理超長上下文和復雜推理過程。

同時,從復雜智能體工作流到大規模跨文檔分析,長時序任務的出現,也使得高效支持超長上下文成為未來發展的關鍵需求。盡管近年來一些開源工作(如DeepSeek、MiniMax、Qwen等)已經推動了模型能力的整體提升,但在處理超長序列方面的核心架構低效問題仍然存在。

DeepSeek-V4為解決這個瓶頸,它通過一系列架構創新,讓模型在處理超長上下文時的計算效率大幅提升,從而真正把上下文長度推進到“百萬token”這個量級。

總體而言,DeepSeek-V4系列沿用了Transformer架構和多Token預測模塊,并在DeepSeek-V3基礎上引入了項關鍵改進:

(1)采用混合注意力架構,將壓縮稀疏注意力(CSA)與高壓縮注意力(HCA)結合,以提升長上下文處理效率;

(2)引入流形約束超連接(mHC),增強傳統殘差連接;

(3)使用Muon優化器,實現更快的收斂速度和更高的訓練穩定性。


具體做法上,DeepSeek-V4保留了MoE結構和多token預測策略,重點改造了注意力機制:提出一種“混合注意力”,即把兩種不同的壓縮方式結合起來,一種是先壓縮再做稀疏注意力,另一種是更激進地壓縮但仍保持稠密計算,這樣在保證信息利用的同時大幅減少計算和存儲開銷。此外,它還改進了殘差連接,增強模型表達能力,并引入新的優化器Muon,讓訓練更快更穩定。

除了模型結構本身,DeepSeek對整個訓練和推理系統做了大量工程優化,比如把MoE的計算、通信和內存訪問融合在一起執行,用專門的語言優化內核,實現可復現的計算過程,以及通過低精度(FP4)來減少資源消耗。在推理階段,還設計了更復雜的KV cache存儲方式,甚至可以部分放到磁盤上,從而支持極長上下文而不爆內存。

三、預訓練:基礎模型提升明顯,Flash模型就已超V3.2

預訓練過程主要基于DeepSeek-V3的數據,同時為構建一個更多樣化、高質量且有效上下文更長的訓練語料庫,DeepSeek持續優化數據構建流程。與DeepSeek-V3不同的是,V4在預訓練過程中引入了“樣本級注意力掩碼”(sample-level attention masking)機制。

對于來自網頁的數據,DeepSeek-V4采用過濾策略,去除批量自動生成和模板化內容,從而降低模型崩潰的風險。數學和編程語料仍然是訓練數據的核心組成部分,同時DeepSeek在中期訓練階段引入了智能體數據,進一步提升DeepSeek-V4系列的代碼能力。

在多語言數據方面,DeepSeek-V4構建了更大規模的語料庫,從而增強模型對不同文化中“長尾知識”的理解能力。此外,DeepSeek-V4特別強調長文檔數據的構建,優先收集科學論文、技術報告等材料。

綜合上述各類數據,預訓練語料總規模超過32萬億tokens,涵蓋數學內容、代碼、網頁文本、長文檔等多種高質量類別。

對于基礎模型的評估,DeepSeek-V4覆蓋四個關鍵維度的基準測試,包括世界知識、語言理解與推理、代碼與數學,以及長上下文處理。

DeepSeek-V3.2、DeepSeek-V4-Flash和DeepSeek-V4-Pro的基礎模型在統一的內部框架下進行了評測,獲得以下結果。


盡管DeepSeek-V4-Flash-Base的激活參數量和總參數量都明顯更小,但它在大量基準測試中超過了DeepSeek-V3.2-Base,該優勢在世界知識任務和長上下文場景中尤其明顯。結果表明,DeepSeek-V4-Flash-Base在更緊湊的參數預算下,也能取得更強性能,在大多數評測中有效超過規模更大的DeepSeek-V3.2-Base。

此外,DeepSeek-V4-Pro-Base能力躍升更為明顯,幾乎全面領先DeepSeek-V3.2-Base和DeepSeek-V4-Flash-Base,在基準測試上刷新了DeepSeek基礎模型的性能上限。它在知識密集型評測和長上下文理解能力取得了顯著提升。在大多數推理和代碼基準上,DeepSeek-V4-Pro-Base也超過了前兩個模型。可以說,DeepSeek-V4-Pro-Base在知識、推理、代碼和長上下文能力等多個方面全面超越了前代模型。

四、后訓練:基于策略蒸餾,跨輪次保留推理歷史

在完成預訓練之后,DeepSeek還進行了后訓練,最終得到DeepSeek-V4系列模型。雖然整體訓練流程在很大程度上沿用了DeepSeek-V3.2的方案,但在方法上做出了一項關鍵替換:原先的混合強化學習(RL)階段被完全替換為“基于策略的蒸餾”(On-Policy Distillation,OPD)。

具體做法是,先對每個目標領域各自訓練一個獨立的專家模型。每位專家都經歷相同的流程:先用高質量領域數據做監督微調打底,再用GRPO算法做領域強化學習,這一步會得到十多位各有所長的“偏科高手”。

真正的合并動作發生在第二階段。DeepSeek-V3.2的做法是把各類數據混在一起做RL,容易互相影響,而V4則換成讓統一的學生模型自己采樣答題,過程中由這十多位專家老師在完整詞表的logit層面打分對齊,用reverse KL損失把學生拉向老師。這種方式保證模型在每個領域的專長都能被完整保留。另外一個關鍵改動是DeepSeek-V4堅持做全詞表蒸餾,進而梯度更穩,訓練曲線更可控,但工程難度更高。

依托DeepSeek-V4系列的一百萬 token上下文窗口,DeepSeek進一步優化機制,以最大化智能體環境中交錯思考的效果。


工具調用場景中,所有推理內容都會在整個對話過程中被完整保留。不同于DeepSeek-V3.2會在每一輪新用戶輸入到來時丟棄思考軌跡,DeepSeek-V4系列會跨越所有輪次保留完整的推理歷史,讓模型能夠在長周期智能體任務中維持連貫、持續累積的思考鏈條。

一般對話場景中,DeepSeek-V4仍然保留原有策略:當新的用戶消息到來時,會丟棄上一輪的推理內容,從而保持上下文簡潔。

與DeepSeek-V3.2一樣,那些通過用戶消息來模擬工具交互的智能體框架(例如 Terminus)可能不會觸發工具調用上下文路徑,因此也可能無法受益于增強后的推理持久化機制。對于這類架構,DeepSeek仍然建議使用非思考模型

五、知識、推理、代碼三線抬升,開源模型逼近閉源上限

評測結果上看,DeepSeek-V4-Pro-Max相比其他開源模型也略有領先,部分能力逼近閉源模型。

知識能力和推理能力上,DeepSeek-V4-Pro-Max相比其他開源模型略有領先,但仍遜于閉源模型Gemini 3.1-Pro。推理能力上,DeepSeek-V4-Pro-Max優于GPT-5.2和Gemini-3.0-Pro,落后于GPT-5.4和Gemini-3.1-Pro;DeepSeek-V4-Flash-Max與GPT-5.2和Gemini-3.0-Pro能力近似,在復雜推理任務中展現出很高的性價比。

Agent能力方面,DeepSeek-V4-Pro-Max與Kimi-K2.6和GLM-5.1等領先開源模型表現相當,但略遜于最前沿的閉源模型。長上下文能力方面,DeepSeek-V4-Pro-Max在合成任務和真實應用場景中均表現強勁,在學術基準測試中甚至超過了Gemini-3.1-Pro。


在DeepSeek-V4-Pro與DeepSeek-V4-Flash的對比中,由于參數規模較小,DeepSeek-V4-Flash-Max在知識類評測中的表現略低。但在給予更多推理token時,在推理任務中的表現可以接近DeepSeek-V4-Pro-Max。在智能體評測中DeepSeek-V4-Flash-Max在部分基準上可以達到與DeepSeek-V4-Pro-Max相當的水平,但在更復雜、高難度任務中仍略遜一籌。

結語:高效支持百萬級token上下文,后續需簡化架構

DeepSeek-V4系列預覽版突破了超長上下文處理中的效率瓶頸,其通過融合CSA與HCA的混合注意力架構,并結合系統級基礎設施優化,使模型能夠更高效地支持百萬token級上下文,為測試時擴展、長時序任務和在線學習等方向提供了基礎。

從評測結果看,DeepSeek-V4-Pro-Max在開源模型中表現突出,在知識、推理和智能體任務上均取得較強結果,部分能力接近前沿閉源模型。DeepSeek-V4-Flash-Max則在較低成本下實現了較強推理能力,體現出較高性價比。

不過,DeepSeek-V4的架構也較為復雜,部分穩定性方法如Anticipatory Routing和SwiGLU Clamping的機理仍有待進一步理解。后續工作預計將集中在簡化架構、提升訓練穩定性、探索更多稀疏化方向、降低長上下文推理延遲、增強多輪智能體與多模態能力,以及持續改進數據構建與合成策略等方面。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
西方媒體:就算中國全力以赴,也不可能按時建成如此龐大的工程!

西方媒體:就算中國全力以赴,也不可能按時建成如此龐大的工程!

小正說娛樂
2026-04-23 18:34:52
空降醫院當院長,報道前一天陪父親看病,主治醫生不耐煩:催啥催

空降醫院當院長,報道前一天陪父親看病,主治醫生不耐煩:催啥催

曉艾故事匯
2025-10-28 21:42:30
消息人士:藍軍的英格蘭幫力挺羅塞尼爾最久,但最終選擇放棄

消息人士:藍軍的英格蘭幫力挺羅塞尼爾最久,但最終選擇放棄

懂球帝
2026-04-24 14:33:27
日媒:隨著性能顯著提升,中日電池技術差距進一步擴大

日媒:隨著性能顯著提升,中日電池技術差距進一步擴大

財聞
2026-04-22 15:41:13
上海一女子稱帶7歲兒子看病被醫生"掐脖掌摑",驗傷報告顯示“頸部可見軟組織損傷”,院方回應

上海一女子稱帶7歲兒子看病被醫生"掐脖掌摑",驗傷報告顯示“頸部可見軟組織損傷”,院方回應

大風新聞
2026-04-23 22:04:15
內塔尼亞胡證實患癌,已接受治療,未“在戰爭高峰期”公布體檢報告

內塔尼亞胡證實患癌,已接受治療,未“在戰爭高峰期”公布體檢報告

星島記事
2026-04-24 20:11:27
張朝陽一身黑色長衫,領舞跳《愛情鳥》,60歲依舊朝氣蓬勃

張朝陽一身黑色長衫,領舞跳《愛情鳥》,60歲依舊朝氣蓬勃

大江
2026-04-24 13:57:48
天助馬競:1-1,西甲第3遭西甲倒數第一逼平,僅領先馬競5分

天助馬競:1-1,西甲第3遭西甲倒數第一逼平,僅領先馬競5分

側身凌空斬
2026-04-24 05:31:46
申花逆轉贏下“榜尾大戰”,雖然沒有于漢超,斯盧茨基的換人依舊有奇效

申花逆轉贏下“榜尾大戰”,雖然沒有于漢超,斯盧茨基的換人依舊有奇效

上觀新聞
2026-04-06 04:56:42
TVB老戲骨忍無可忍含淚揭家丑,每月接濟兒子五萬,走了向太老路

TVB老戲骨忍無可忍含淚揭家丑,每月接濟兒子五萬,走了向太老路

翰飛觀事
2026-04-22 19:35:28
67歲的遲志強現狀,出獄37年后,定居黑龍江,兒子工作令人淚目

67歲的遲志強現狀,出獄37年后,定居黑龍江,兒子工作令人淚目

瓜哥的動物日記
2026-04-22 16:20:45
三大運營商的血條快打空了……

三大運營商的血條快打空了……

悲了傷的白犀牛
2026-04-24 18:52:39
SSD價格再漲10%!2TB SSD價格已對標RTX 5080

SSD價格再漲10%!2TB SSD價格已對標RTX 5080

3DM游戲
2026-04-24 17:38:02
一點小事就發脾氣、情緒失控,不是性格不好,而是這個原因——

一點小事就發脾氣、情緒失控,不是性格不好,而是這個原因——

壹心理
2026-04-24 11:03:28
歐冠歷史第一助攻王是C羅?這組數據扯下了多少傳球大師的遮羞布

歐冠歷史第一助攻王是C羅?這組數據扯下了多少傳球大師的遮羞布

體壇八點半的那些事兒
2026-04-24 19:20:31
馬斯克:約400萬輛特斯拉HW3車型將無法獲得FSD

馬斯克:約400萬輛特斯拉HW3車型將無法獲得FSD

CNMO科技
2026-04-23 07:44:09
官方:馬寧以四官身份執法亞冠精英賽決賽,周飛擔任邊裁

官方:馬寧以四官身份執法亞冠精英賽決賽,周飛擔任邊裁

懂球帝
2026-04-24 11:23:16
為何女人第一次私會偷情,就會發生親密關系同房呢?

為何女人第一次私會偷情,就會發生親密關系同房呢?

思絮
2026-04-23 16:31:09
不再是120/80,“新血壓標準”已公布,別再自己嚇自己!

不再是120/80,“新血壓標準”已公布,別再自己嚇自己!

芹姐說生活
2026-04-14 23:27:03
泰山隊兩大主力未隨隊出征,3人有3張黃牌,打海牛陣容有變化

泰山隊兩大主力未隨隊出征,3人有3張黃牌,打海牛陣容有變化

牛眼看球
2026-04-24 18:24:00
2026-04-24 21:07:00
智東西 incentive-icons
智東西
智東西,AI產業新媒體,專注報道人工智能的前沿技術發展,和技術應用帶來的千行百業產業變革。
11684文章數 117040關注度
往期回顧 全部

科技要聞

DeepSeek V4牽手華為,價格依然"屠夫級"

頭條要聞

男子撫養14年兒子非親生 妻子結婚擺酒前跟別人在一起

頭條要聞

男子撫養14年兒子非親生 妻子結婚擺酒前跟別人在一起

體育要聞

里程碑之戰拖后腿,哈登18分8失誤

娛樂要聞

停工16個月!趙露思證實接拍新劇

財經要聞

LG財閥內斗:百億美元商業帝國爭奪戰

汽車要聞

零跑Lafa5 Ultra北京車展上市:11.88-12.48萬

態度原創

教育
游戲
旅游
數碼
公開課

教育要聞

尊敬不是優越感

《星空》再為PS5緊急更新:Xbox玩家的反應絕了!

旅游要聞

視點|泡泡瑪特城市樂園煥新升級,新地圖解鎖更多歡樂!

數碼要聞

浩鑫推出新款迷你準系統,可裝酷睿Ultra和獨顯

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版