我的創業故事:《
大家好,我是微笑哥。
之前說過很多次的狼來了,這次狼是真的來了,推遲了 N 多次的 DeepSeek-V4 在經歷過過程芯片適配,上線又回滾等多次事件后,終于如約而至。
剛剛,DeepSeek 官方公眾號發文:DeepSeek-V4 預覽版:邁入百萬上下文普惠時代。
全新 DeepSeek-V4 的預覽版本正式上線。
V4 擁有百萬字超長上下文,在 Agent 能力、世界知識和推理性能上均實現國內與開源領域的領先。
模型按大小分為兩個版本:
![]()
DeepSeek-V4-Flash,更快更便宜一點,在處理簡單的任務上面和 Pro 的版本沒太大差距,但如果在難度系數更大的任務上,推薦使用 Pro 的版本。
DeepSeek-V4-Flash,極致性價比,適合高頻、簡單任務,提供快速響應。簡單推理和Agent能力媲美Pro版
DeepSeek-V4-Pro,極致性能,面向復雜邏輯、深度思考和高性能場景。采用新的 Megamerge MoE架構。
現在登錄官網什么,就已經是 V4了。
![]()
根據官方的報道,DeepSeek-V4-Pro:性能比肩頂級閉源模型,什么叫做比肩頂級閉源模型。
大家看看下面的對比圖。
![]()
就是在多項測試中,已經顯著拉齊甚至超過了 Claude Opus-4.6 和 Gpt-54,還有 Gemini-3.1。
這里面很有意思的一點是, DeepSeek 只對比了 Cluade、ChatGPT 和 Gemini。
也就是說,在 DeepSeek 的心中,只有這 3 家才是它的競爭對手,大家要知道這3家已經是美國最頂尖的 AI 大模型公司。
這 3 家,每年在 AI 大模型上面投入的資金、人才密度,比 DeepSeek 要多多少倍,而 DeepSeek 只是一家小公司,還是開源的。
這些更新有哪些亮點,稍微總結一下:
1、支持接近百萬級 token 上下文(1M+)。
開創了一種全新的注意力機制,在 token 維度進行壓縮,相比于傳統方法大幅降低了對計算和顯存的需求。
從現在開始,1M(一百萬)上下文將是 DeepSeek 所有官方服務的標配。
![]()
DeepSeek-V4 和 DeepSeek-V3.2 的
2、Agent 能力專項優化針對Claude Code、OpenCode、CodeBuddy等主流Agent產品進行了深度優化,在代碼任務、文檔生成任務等方面表現均有提升。
Agentic Coding能力已達到開源模型最佳水平。內部評測顯示,其使用體驗優于Sonnet 4.5,交付質量接近Opus 4.6
3、在數學、STEM(科學、技術、工程、數學)及競賽級代碼等推理測評中,均超越所有已公開評測的開源模型,達到世界頂級水平。
4、V4-Pro版本的世界知識儲備,已大幅領先其他開源模型,僅次于頂尖閉源模型Gemini-Pro-3.1
5、深度適配華為昇騰算力:V4將運行在華為最新的昇騰(Ascend)芯片上。
為此,工程師團隊重寫了核心代碼,完成了從CUDA到CANN的生態遷移,并與華為昇騰實現了 FP4量化精度的深度優化。
6、使用了 Mega MoE 和 Hyper-Connection 等新技術。
并引入了 DSA 與 NSA 相結合的稀疏注意力架構。DSA專注于讓模型生成更優質的答案,而NSA則確保處理超長文本時速度更快、成本更低。
只能說,DeepSeek 那個曾經的王者,又回來了!
![]()
我們決定開放一場:《3天AI跨境實操訓練營》,這3天,你能學到的是:
從0開店的完整流程
AI選品 + 上架實操
跑通第一單的完整路徑
重點不是聽課,而是:帶你親手跑一遍閉環。
【注意】
這個訓練營,后續是正常收費99元的,這一次是首次對外開放,限時免費。
而且只開放一批名額,滿了就關。按照我們往期的經驗:執行力強的人,3天就可以把店鋪開起來,甚至跑出第一單。
![]()
長按海報二維碼3秒添加我合伙人【甜甜】
通過后回復:【訓練營】
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.