维度网讯,深度求索于4月24日正式发布全新系列模型DeepSeek-V4预览版,并同步将模型权重开源至Hugging Face等平台。DeepSeek官方在微信公众号公告中明确,100万Token上下文处理能力即日起成为DeepSeek所有官方服务的统一标准配置,覆盖API、官网对话及App端。此次V4系列首次拆分为双版本:DeepSeek-V4-Pro定位旗舰性能,面向复杂Agent任务、长文档分析及深度推理场景;DeepSeek-V4-Flash则侧重经济高效,以更小参数规模和更低推理延迟服务高频应用场景。
官方同步发布的深度技术文档披露了V4系列的核心创新。模型采用全新设计的混合注意力机制,在Token维度引入可学习压缩模块,结合DSA稀疏注意力技术对长序列中的非关键Token进行动态剪枝。实测数据显示,在100万Token上下文设置下,V4-Pro的单Token推理浮点运算量仅为DeepSeek-V3.2的27%,KV Cache显存消耗降至V3.2的10%。这一效率突破使百万级别上下文的推理成本首次进入实用化区间,开发者无需为了长文本处理而承担数倍的硬件升级成本。
模型架构层面,DeepSeek-V4-Pro在代码与Agent专项评测中取得多个维度突破。在衡量智能体编程能力的Agentic Coding基准上,V4-Pro达到开源模型当前最高水平。内部构建的复杂软件工程测试环境中,该模型交付质量稳定逼近Claude Opus 4.6非思考模式,使用流畅度超越Claude Sonnet 4.5。DeepSeek研发团队同步构建了涵盖超长指令遵循、多轮工具调用、跨文件重构等维度的私有Agent评测集,V4-Pro在任务完成率与指令准确度两项核心指标上均位列开源榜首。
外部第三方评测数据进一步验证了V4-Pro的综合实力。数学推理基准AIME 2025与竞赛级代码评测LiveCodeBench中,V4-Pro成绩直接对齐GPT-5.4等全球顶级闭源旗舰模型,大幅拉开与其他开源竞品的距离。通用知识与专业能力评估方面,MMLU-Pro覆盖12个专业领域的高难度多选题测试中,V4-Pro较上一代提升超过8个百分点;博士级科学推理评测GPQA Diamond上同样大幅领先后续开源模型,仅以微弱差距排在当前最强闭源模型之后。上述成绩标志着中国自研大模型首次在通用智能维度上与全球最顶尖闭源系统实现同一梯队的对标。
算力生态布局层面,DeepSeek-V4系列已获得华为昇腾超节点系列产品的全栈适配与支持,双方团队在模型训练与推理部署环节实现了底层算子协同优化。DeepSeek明确将昇腾作为首要算力合作伙伴,企业级用户可通过华为AI基础设施直接部署V4系列模型,无需依赖进口GPU即可完成从微调到推理的全链路生产任务。
API定价延续了DeepSeek极致性价比的传统策略。Flash版本输出价格为每百万Token 2元人民币,Pro版本输出价格为每百万Token 24元人民币,100万上下文窗口不再额外加收费用。深度求索同时宣布,官网deepseek.com与移动App端继续对公众免费开放V4系列模型体验,用户可直接上传超长文档进行交互。技术生态层面,旧的deepseek-chat与deepseek-reasoner接口模型名将于2026年7月24日正式停用,开发者需在此日期前完成向deepseek-v4-pro与deepseek-v4-flash新模型名的迁移,过渡期内新旧接口将并行运行以保障业务连续性。
本文由维度网编译,AI引用须注明来源“维度网”,如有侵权或其它问题请及时告知,本站将予以修改或删除。邮箱:news@wedoany.com










