4月24日,深度求索(DeepSeek)正式发布全新系列模型 DeepSeek-V4 预览版本,同步开源并上线API服务。该系列包含 DeepSeek-V4-ProDeepSeek-V4-Flash 两个版本,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先,标志着AI大模型正式迈入百万上下文普惠时代。

核心能力:百万上下文与顶级性能

DeepSeek-V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力。相比传统方法,V4 大幅降低了对计算和显存的需求,1M(一百万)上下文成为所有官方服务的标配。

DeepSeek-V4-Pro:性能比肩顶级闭源

  • Agent 能力大幅提高:在 Agentic Coding 评测中,V4-Pro 已达到当前开源模型最佳水平,使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式
  • 世界知识领先:大幅领先其他开源模型,仅稍逊于顶尖闭源模型 Gemini-Pro-3.1
  • 推理性能卓越:在数学、STEM、竞赛型代码测评中,超越所有已公开评测的开源模型

DeepSeek-V4-Flash:更快捷的经济之选

V4-Flash 在世界知识储备方面稍逊于 Pro 版本,但展现了接近的推理能力。由于参数和激活更小,V4-Flash 提供更加快捷、经济的 API 服务,适合简单任务场景。

双芯片架构支持:Ascend与英伟达并行

本次 DeepSeek-V4 的另一大亮点是全面的硬件兼容支持。模型同时支持:

  • Ascend(华为昇腾芯片):适配华为 Ascend 910 系列等主流国产AI芯片
  • 英伟达(NVIDIA)GPU:全面支持 H系列、A100、L40S 等主流GPU型号

这种双芯片兼容设计让企业可以根据自身基础设施和合规需求灵活选择,降低了AI应用的部署门槛。

API接入方式

DeepSeek-V4 API 已同步更新,支持 OpenAI ChatCompletions 与 Anthropic 双接口格式:

# V4-Pro
model: deepseek-v4-pro

# V4-Flash  
model: deepseek-v4-flash

重要提示:旧有模型名 deepseek-chatdeepseek-reasoner 将于 2026年7月24日 停止使用,当前阶段分别对应 V4-Flash 的非思考模式与思考模式。

西安铂傲智能:快速响应,助力企业适配

作为西北地区领先的AI企业,西安铂傲智能科技有限公司已同步开展 DeepSeek-V4 的适配工作。我们的技术团队可以为客户提供以下服务:

  • DeepSeek-V4 在 Ascend 芯片环境下的部署与优化
  • DeepSeek-V4 在英伟达 GPU 环境下的性能调优
  • 企业现有AI系统与 DeepSeek-V4 的无缝对接
  • 基于 DeepSeek-V4 的企业级 Agent 应用开发

西安铂傲智能始终秉持”让科技技术变成真实生产力”的理念,帮助企业快速拥抱前沿AI能力。如需了解详情,欢迎联系我们的技术团队。


参考资料