等了15個月,今天(4月24日),DeepSeek-V4(預覽版本)終于發布了,而且是在OpenAI發布GPT-5.5幾個小時后。
在約1000字的DeepSeek-V4產品介紹文章中,Agent(智能體)一詞出現了多達11次。
DeepSeek-V4用專家模式(Pro)和快速模式(Flash)雙版本配置,將大模型價格戰從“聊天便宜”推進“Agent便宜”時代。
![]()
DeepSeek-V4憑借全新稀疏注意力與同策略蒸餾技術,把推理成本壓到新低,V4-Flash版輸出價僅為GPT-5.5 Pro的1.55‰,V4-Pro版性能比肩全球頂級閉源模型。
“低價快模型 + 高價強模型”組合,讓DeepSeek-V4打通了Agent規模化落地的成本賬。
全球模型對比:DeepSeek-V4實際價格到底多便宜?
DeepSeek-V4發布后不久,全球最大AI模型應用程序編程接口聚合平臺OpenRouter上,就已經有用戶進行了調用。截至4月24日15點,OpenRouter平臺上DeepSeek-V4-Pro的調用量達到2.99億Token,V4-Flash調用量達到3.99億Token。
![]()
DeepSeek延續了一貫的“普惠”風格。
V4-Flash:緩存命中輸入0.2元/百萬Token,緩存未命中輸入1元/百萬Token,輸出2元/百萬Token。
V4-Pro:緩存命中輸入1元/百萬Token,緩存未命中輸入12元/百萬Token,輸出24元/百萬Token。
![]()
然而,不同于公司官方的API定價,OpenRouter平臺會綜合不同服務商渠道報價,按照各渠道實際調用流量加權計算得出的市場綜合均價,也就是實際使用價格,該價格也會隨時變動。
《每日經濟新聞》記者統計OpenRouter數據發現,截至4月24日13:30,本周調用量領先的國內外主流AI大模型中,DeepSeek-V4-Flash的成本優勢突出,每百萬Token的平均輸出價低至0.279美元,僅為OpenAI新發布的GPT-5.5 Pro(180美元)的1.55‰。
Anthropic Claude Opus系列、OpenAI GPT-5.4,以及谷歌Gemini 3.1 Pro Preview等大模型的輸出價格均在12~25美元區間,是DeepSeek-V4-Flash的數十倍。
![]()
![]()
在輸入端,DeepSeek-V4-Flash每百萬Token平均輸入價僅為0.07美元,只略高于階躍星辰Step 3.5 Flash的0.031美元,顯著低于其他國內外主流大模型。
值得一提的是,業界一直在關注DeepSeek-V4是否會使用國產算力。DeepSeek在產品介紹文章中用小字表示,受限于高端算力,目前V4-Pro的服務吞吐十分有限,預計下半年昇騰950超節點批量上市后,V4-Pro的價格會大幅下調。
DeepSeek-V4是如何實現低價的?
DeepSeek在58頁的技術報告《DeepSeek V4:邁向高效的百萬Token上下文智能》提到,V4開創了一種全新的注意力機制,在Token維度進行壓縮,結合DSA稀疏注意力(DeepSeek Sparse Attention),相比于傳統方法大幅降低了對計算和顯存的需求。
這條路線和V3.2是一脈相承的。V3.2-Exp去年9月第一次引入DSA時,就把推理成本腰斬過一次。
真正讓V4和V3.2在方法論上分岔的,是post-training(后訓練)。技術報告中提到,V3.2的mixed RL(混合強化學習)階段在V4被整體替換成了 On-Policy Distillation(同策略蒸餾)。
新的流水線分兩段。先分別訓練幾十個領域專家模型,覆蓋數學、代碼、Agent、指令跟隨,產出一個在各個領域內極強的“偏科生”。
在第二階段,把十幾個“教師模型”蒸餾到一個“學生模型”里。這種“先分頭培養專家、再合并成通才”的路線,DeepSeek在報告里直接點名參考了思維機器實驗室去年10月的on-policy distillation工作。
DeepSeek-V4的Agent賬本:簡單任務調用V4-Flash,高難任務調用V4-Pro
AI的使用場景已經從對話進入Agent。
OpenRouter與a16z聯合發布的《2025 AI使用報告》覆蓋超100萬億Token的匿名元數據,里面有一組數據極其關鍵——編程任務的Token占比從2025年初的11%飆到了50%以上,成為平臺最大的單一使用品類。同時,Agent驅動的工作流產生的輸出Token已超過平臺總輸出的一半。
過去的問答式AI,一輪對話消耗幾百到幾千Token,用戶不再提問,Token就不會再消耗。Agent模式下,機器可以持續在后臺跑流程。極端假設Agent全天候運行,每天吞掉數十億Token。
因此,中國開源模型陣營幾乎所有頭部玩家都把Agent作為主攻方向,從架構到訓練全鏈路為Agent場景做原生適配。
但光便宜不夠,在這一輪真正拉開差距的,要在Agent場景下“跑得好”。
在此背景下,DeepSeek-V4似乎正是為Agent而研發的。DeepSeek在1000字的V4產品介紹文章中,Agent一詞出現了多達11次。
價格較高但能力強的V4-Pro與快捷高效且價格便宜的V4-Flash的組合拳,恰好符合Agent的場景。
DeepSeek稱,V4-Pro性能比肩頂級閉源模型,而V4-Flash是更快捷高效的經濟之選。
![]()
● Agent能力:相比前代模型,DeepSeek-V4-Pro的Agent能力顯著增強。在Agentic Coding評測中,V4-Pro已達到當前開源模型最佳水平,并在其他Agent相關評測中同樣表現優異。目前DeepSeek-V4已成為公司內部員工使用的Agentic Coding模型。
● 世界知識:DeepSeek-V4-Pro在世界知識測評中,大幅領先其他開源模型。
● 推理性能:在數學、STEM、競賽型代碼的測評中,DeepSeek-V4-Pro超越當前所有已公開評測的開源模型,取得了比肩世界頂級閉源模型的優異成績。
相比V4-Pro,V4-Flash在世界知識儲備方面稍遜一籌,但展現出了接近的推理能力。而由于模型參數和激活更小,相較之下V4-Flash能夠提供更加快捷、經濟的API服務。
在Agent測評中,DeepSeek-V4-Flash在簡單任務上與DeepSeek-V4-Pro旗鼓相當,但在高難度任務上仍有差距。
普通任務調用V4-Flash等低價模型,高難任務才調用V4-Pro。對DeepSeek來說,未來不是單純比誰最強,而是比綜合任務成本。
所以,V4-Flash的意義不是“便宜一點”,而是把Agent場景,變成可以算賬的生意。
免責聲明:本文內容與數據僅供參考,不構成投資建議,使用前核實。據此操作,風險自擔。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.