IT之家 4 月 25 日消息,英偉達今天(4 月 25 日)發布博文,宣布其 NVIDIA Blackwell 平臺已適配 DeepSeek-V4-Pro 與 DeepSeek-V4-Flash 兩款模型,開發者可通過 NVIDIA NIM 微服務下載部署,或利用 SGLang 與 vLLM 框架進行定制化推理。
英偉達在博文指出,DeepSeek-V4-Pro 擁有 1.6T 總參數量與 49B 激活參數,定位高級推理任務;DeepSeek-V4-Flash 版本則為 284B 總參數量與 13B 激活參數,主打高速高效場景。
![]()
兩款模型均支持 100 萬 Token 上下文窗口與最高 38.4 萬 Token 輸出長度,覆蓋長文本編碼、文檔分析等核心應用,并采用 MIT 開源協議。
實測數據顯示,DeepSeek-V4-Pro 在 NVIDIA GB200 NVL72 上開箱即用性能超 150 tokens / sec / user,借助 vLLM 的 Day 0 配方,開發者可在 Blackwell B300 上快速部署。隨著 Dynamo、NVFP4 及 CUDA 內核的深度優化,預期性能將進一步提升。
![]()
部署生態方面,開發者可通過 NVIDIA NIM 微服務下載部署,或利用 SGLang 與 vLLM 框架進行定制化推理。SGLang 提供低延遲、均衡及最大吞吐量三種配方;vLLM 則支持多節點擴展至 100 個以上 GPU,具備工具調用與推測解碼能力。
![]()
IT之家附上參考
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.