DeepSeek-V4预览版上线并开源 探索1M超长上下文新体验!4月24日,DeepSeek官方微信宣布,全新系列模型DeepSeek-V4预览版本正式上线并开源。DeepSeek-V4拥有百万字超长上下文,在Agent能力、世界知识和推理性能上均实现国内与开源领域的领先。该模型分为两个版本:DeepSeek-V4-Pro和DeepSeek-V4-Flash。

用户现在可以通过登录官网chat.deepseek.com或官方App与最新的DeepSeek-V4对话,体验1M超长上下文记忆。API服务也已同步更新,通过修改model_name为deepseek-v4-pro或deepseek-v4-flash即可调用。

DeepSeek-V4-Pro在性能上比肩顶级闭源模型,其Agent能力显著增强。在Agentic Coding评测中,V4-Pro达到了当前开源模型的最佳水平,并且在其他Agent相关评测中同样表现优异。公司内部员工使用反馈显示,V4-Pro的使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式,但仍与Opus 4.6思考模式存在一定差距。此外,V4-Pro在世界知识测评中大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1。在数学、STEM、竞赛型代码的测评中,V4-Pro超越了所有已公开评测的开源模型,成绩比肩世界顶级闭源模型。

相比之下,DeepSeek-V4-Flash虽然在世界知识储备方面略逊一筹,但展现出接近的推理能力。由于模型参数和激活更小,V4-Flash能够提供更加快捷、经济的API服务。在简单任务上,V4-Flash与V4-Pro旗鼓相当,但在高难度任务上仍有差距。



