DeepSeek 发布并开源 V4 预览版:1.6T 参数 MoE,全系标配 1M 上下文
-
DeepSeek 于 4 月 24 日发布并同步开源 V4 预览版,分为 V4-Pro(1.6T 总参数、49B 激活)与 V4-Flash(284B 总参数、13B 激活)两档,均为 MoE 架构并原生支持 100 万(1M)token 上下文。官方称 V4-Pro 在 Agentic Coding 评测中达到当前开源模型最佳水平,已被 DeepSeek 内部用作日常 Agentic Coding 主力,反馈使用体验优于 Claude Sonnet 4.5、交付质量接近 Opus 4.6 非思考模式,仍落后于 Opus 4.6 思考模式;世界知识仅稍逊于 Gemini-Pro-3.1;数学、竞赛代码评测超越所有已公开评测的开源模型,Codeforces 评分 3206 高于 GPT-5.4。V4-Flash 推理能力接近 Pro 版但更快更经济,简单 Agent 任务与 Pro 版相当、复杂任务仍有差距。
技术上 V4 提出 token 维度压缩注意力机制并结合 DSA 稀疏注意力(DeepSeek Sparse Attention),官方称在 1M 上下文下 V4-Pro 单 token 推理 FLOPs 仅为 V3.2 的 27%、KV Cache 仅为 10%。API 层面 base_url 不变,model 改为 deepseek-v4-pro 或 deepseek-v4-flash 即可调用,同时支持 OpenAI ChatCompletions 与 Anthropic 双协议;定价上 V4-Pro 每百万 token 输出 24 元、V4-Flash 输出 2 元,远低于同档闭源模型。原有的 deepseek-chat 与 deepseek-reasoner 两个旧模型名将于 2026 年 7 月 24 日下线,当前分别指向 V4-Flash 的非思考与思考模式。本次发布与 OpenAI 的 GPT-5.5 选择同日上线,权重与技术报告均已在 HuggingFace、ModelScope 同步开源。
DeepSeek API Docs | IT之家 | 36氪 | 观察者网