文 | 新眸,作者 | 李小東
過去一年多,大模型圈每季度至少經歷一次牌面重洗。有人在多模態端連出三張底牌,有人在Agent賽道一把梭哈,還有人干脆掀了桌子,把模型拆成零件來賣。
但所有人都在等一個人出牌。
這人一年多沒動靜。2025年1月R1發布之后,他就像從牌桌上消失了。中間V3.1、V3.2、FlashMLA、DualPath這些零零散散的更新,充其量算在桌下換了一手牌,沒人知道他手里到底攥著什么。
4月24日,DeepSeek終于把牌撂下來了——V4預覽版正式上線并開源,兩個版本:V4-Pro和V4-Flash。
Pro對標頂級閉源。Agent Coding模式下,內部測評體驗優于Sonnet 4.5,交付質量接近Opus 4.6非思考模式。世界知識測評大幅領先其他開源模型,僅稍遜于Gemini Pro 3.1。數學和代碼推理性能上,官方稱“超越當前所有已公開評測的開源模型”。
![]()
Flash是輕量版,推理能力接近Pro,但參數和激活更小,API響應更快,成本更低。兩款都支持百萬token上下文——而且是標配。
問題來了:一家公司,在同行瘋狂跑馬圈地的十五個月里基本沉默,一出手卻直接把自己釘回了行業錨點,這說明什么?
說明牌桌上的人根本沒離開過。他只是換了一種打法。
01 架構的延續性革命
要理解V4,先得回看V3。
2024年底,當時大模型行業的主流敘事還是“參數越大越強”。訓練一個大幾千億參數的模型,成本動輒千萬美元起步。DeepSeek V3用6710億總參數、每次推理激活37B專家的MoE架構,把單次訓練成本壓到了500萬美元出頭。
不靠砍參數量,靠MoE路由策略、DSA注意力機制和工程層面的極致優化,說白了,把每一分算力都花在刀刃上。
V4走的還是這條路,但走到了更遠的地方。
技術規格上,V4完整版總參數躍升至1.6萬億,2850億的Lite版作為更經濟的選項。注意力機制升級為DSA2,整合了DeepSeek V3/R1中的DSA設計,同時引入今年初論文中提出的NSA稀疏注意力方案。MoE系統啟用Mega內核結構,每層配置384個專家,每次推理激活其中6個。殘差連接沿用Hyper-Connections方案,這條路在近期的DeepGemm更新中已有預演。
這些名詞堆在一起,外行看著像天書,但業內人一眼就能讀出含義:V4是DeepSeek過去兩年來所有技術積累的集大成。
但最值得關注的變化,在于它的實現方式。
V4延期發布的真正原因,不是什么bug修不完,而是DeepSeek把整套系統從英偉達生態搬到了華為昇騰芯片上。
這不是換個驅動的事兒。DeepSeek R1當年對英偉達GPU的PTX底層做了極致優化,這是它“花小錢辦大事”的核心競爭力。PTX是CUDA生態里的中間語言,深入到這層,才把當時能壓榨的性能都壓了出來。但轉到華為昇騰之后,基于英偉達的所有工程積累全部作廢。整套底層代碼、調度邏輯、工程體系,要重寫一遍。
難度在哪里?大模型參數達到萬億級別之后,算力壓力從“純計算”轉向了“系統調度與通信”。DeepSeek V4雖然通過MoE降低了單次推理的計算量,但對內存帶寬、芯片間互聯、KV Cache管理的要求反而更高了。
英偉達生態里,Hub上關于H100/B200通過NVLink構建高帶寬互聯的討論早已證實,其單節點GPU間帶寬可達TB/s級別。昇騰在這些指標上有明顯差距,更多依賴光模塊進行跨節點擴展,會引入額外的延遲和同步開銷。軟件層面,昇騰的CANN框架在算子覆蓋、自動并行、內核融合等方面的成熟度,與CUDA生態仍不是同一個量級。
代價就是時間。V4原計劃今年農歷新年或2-3月發布,一路推到4月才亮相。按路透社的報道,V4將運行在華為最新的昇騰芯片上,工程師花了大量時間重寫核心代碼。V4計劃發布兩個版本:完整版面向華為昇騰芯片,輕量版可在其他國產芯片上運行。
這件事的意義怎么強調都不過分。過去兩年,大模型世界建了一座巨大工廠,所有的工具、標尺、流水線都是英文寫的。你在這個工廠里干活,就必須用別人的工具。英偉達CEO黃仁勛近期的反應很能說明問題,他說DeepSeek基于華為平臺的新模型“對美國來說將是一個糟糕的結果”。這話從英偉達老板嘴里說出來,分量絕對不輕。
一旦有頂級模型在中國國產硬件上跑通了穩定高效的推理,美國芯片的護城河就不再牢固。而在4月24日的發布中,官方已明確回應,V4在下半年將正式支持華為算力。
02 推理端開始降價,百萬token的平權
架構的優化落到地面,看的是成本。而成本控制這件事,DeepSeek以前干過一次了。
2025年初,當各家大模型還在拼訓練端燒錢速度的時候,DeepSeek V3用一套優化到極致的MoE加DSA架構,把同等參數量級下的訓練成本砍到了業內平均水平的幾分之一。有評論稱之為“訓練端通縮奇跡”。
但過去一年,AI行業的問題已經從“怎么訓出一個好模型”變成了“怎么讓好模型被用得起”。2026年中國日均Token調用量突破140萬億,兩年間漲了一千多倍。當調用量以這個速度膨脹,推理成本就成了唯一的命門。
V4在推理端做了兩道減法。第一道在架構層面:注意力機制從密集計算改為DSA2稀疏注意力,Token維度直接做壓縮。官方表述是“相比傳統方法,對計算和顯存的需求大幅降低”。第二道在精度層面:支持FP4精度,對顯存的要求在FP8基礎上再降一半。
路透社此前報道的推算也佐證了效率控制的成果:V4每個token僅激活約370億參數,推理成本與V3保持在同一量級。參數量翻了不止一倍,推理成本卻沒漲。這意味著大到需要算力集群的企業,小到調用API的創業者,都能在更大規模的模型上維持相近的預算。
而DeepSeek長期以來的定價也起到了降低門檻的作用。模型好用,用得便宜,調用量自然持續增長。反過來持續分攤攤銷研發投入,再推動更大規模模型的開放,形成一個正向飛輪。
這個邏輯過去一年在開源模型里跑通了不止一家,V4大概率是這條路上最新的加速器。
V4還有一個容易被忽視的信號:百萬token上下文成為標配。
一年前,1M上下文還是Gemini獨家的王牌,其他所有閉源模型普遍在128K或200K之間,開源生態幾乎沒人碰這個量級。DeepSeek沒有把它包裝成高端增值服務,而是明確宣布從今天開始,V4所有官方服務的上下文默認都是1M。而且開源。
![]()
它的技術路線也解釋得很干脆。用一種全新的注意力機制在token維度上做壓縮,同時配合DSA稀疏注意力,直接把傳統Attention的計算量和顯存需求量削了下去,使得模型處理1M上下文時的實際開銷并不比處理128K高多少,甚至可以忽略不計。
此前的方案為了支撐長上下文,往往要追加內存、增加緩存層級。而V4把這條路走了個捷徑,且已經開放給所有人。
這意味著什么?中小開發者用零門檻把整本《三體》塞進提示詞,法律合同分析可以全文一次性送入模型,長周期多輪Agent調用完全免去記憶壓縮的魔改。
2025年,大模型行業的敘事還是“能力平權”,開源模型追上閉源,大家都能用。2026年,敘事進一步延伸,變成“使用平權”,好模型不僅要追得上,還得用得起、用得方便。
當把1M上下文和Agent能力同時開放,開發者的天花板一下子被抬高了很多。而這扇門打開之前,做Agent的團隊光是處理超長上下文的記憶管理就要花掉一半精力。
03 大廠的焦灼和各自的算盤
V4的發布會不是在真空中開的。牌桌上已經換了不知道幾輪玩家。
大廠這邊,各家動作密集到了“每周都有新東西”的程度。2026年馬年春節前后,字節、阿里、騰訊、百度四家累計投入超45億元,以紅包、免單、科技禮品等形式推動AI應用走向全民。
技術競賽進入膠著狀態。2月,阿里、字節、MiniMax密集發布新一代模型產品,MiniMax M2.5、Kimi K2.5、GLM-5等中國模型在OpenRouters上的Tokens消耗數已排進全球前三。
前不久,騰訊發布混元世界模型2.0,支持二次編輯并直接導入Unity和UE引擎;阿里ATH事業部發布HappyOyster世界模擬器,支持高保真動態場景生成。同月,京東探索研究院開源自研的JoyAI-Image-Edit圖像模型,切入了AI空間理解的核心難題。
云廠商的模型策略也從“押注一顆獨苗”轉向了多模型整合。“模型超市”遍地開花,阿里云、百度智能云、騰訊云都在把多家不同廠商的模型集中納入同一平臺,按需分發推薦。這背后的邏輯很清楚,大模型正在從研發資產走向流通商品,掌握分發渠道比擁有單一模型的技術優勢,市場回報更確定。
而DeepSeek面臨的局面比一年前復雜得多。
2026年的Agent繁榮帶來了Token消耗的狂歡,從OpenClaw到Hermas都在朝同一個方向用力,把大模型調用頻次推向指數級更高。智譜、MiniMax等廠商憑借海量的API調用在推理端悶聲發大財,甚至推動了阿里、智譜和MiniMax自身轉向閉源。
當對手的戰爭已經推進到了多模態全能矩陣和業務深融的Agent生態時,單一的基座能力和文本推理已經不足以構成護城河。V4不再打單點突破的孤膽英雄,而是必須同時在開源模型基準、超長上下文易用性、推理成本控制以及國產硬件支持等多個棋盤上取得優勢。
從發布結果看,V4交出的答卷確實驗證了它對當下競爭焦點的理解。而它面臨的核心考驗,其實已經被精準概括,“積累的Prompt技巧,都是基于DeepSeek架構,那在一定程度上會增加開發者更換模型的成本,形成了隱形的技術定價權”。
技術定價權的持久性,取決于V4發布之后的開源生態運營節奏和商業模式的策略縱深。
回頭看,DeepSeek V3那一次,改變的是“訓練成本”。當時行業共識是訓練大幾千億參數的模型動輒幾千萬美元,DeepSeek用500萬美元證明這個數字可以壓縮一個量級。之后各家的訓練成本預估一路走低,開源和閉源的成本基線被重新書寫。
V4這次做的是另一件事:它用萬億參數級的模型,把基準能力、百萬級上下文和Agent能力同時打包、拆開、開源,向行業宣告——成本這一刀接下來砍向推理端。
這對不同玩家的打擊是不同的。對重注閉源的大廠來說,壓力在于競爭不再只是性能對標,而是開源社區把“水電煤”的價格壓穿了之后,閉源要維持溢價變得越來越困難。
從OpenAI到Anthropic,包括國內閉源巨頭,面對Arch Lint的價格錨點,定價體系只會變得前所未有的透明。對于盯緊基礎層算力供需的服務商來說,當推理效率大幅提高、能效持續優化,整個算力需求的預期反而可能被重新上修。
更深一層的意義在于硬件生態。黃仁勛說“DeepSeek基于華為平臺的新模型對美國來說將是一個糟糕的結果”,恰好點出了這輪AI競爭的核心,從算法比拼轉到系統工程能力比拼,再到硬件生態的綁定與突圍。
V4會不會成為第一個真正跑通國產算力閉環的萬億級大模型,現在還沒有定論,但它在“去CUDA化”這條路上至少提供了一種可驗證的參照系。
至于DeepSeek自己,融資、人才、商業化,該面對的問題一個不會少。據上海證券報消息,DeepSeek已啟動成立以來首次外部融資,目標估值不低于100億美元,計劃籌集至少3億美元。首代模型核心作者之一羅福莉轉投小米,R1核心研究員、GRPO核心發明者郭達雅加入字節跳動Seed。
大模型賽道的殘酷在于,你必須在飛馳的列車上邊換輪子邊踩油門,停下來哪怕三個月,就可能被甩出牌桌。
DeepSeek停了一年多,這期間對面的人一直在不停地發牌。現在它終于亮出了自己的牌。只看一個開局,勝負還遠未到來,但有一點確切無誤:這家公司的牌,從V3打到V4,不打散牌,一把王炸。
無論最終誰是贏家,這輪牌局的圍觀價值,遠遠勝過任何一個模型的跑分結果。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.