DeepSeek V4
BenchLM 综合: 87
DeepSeek V4 目前以 87 分领先于 BenchLM 综合智能指数——仅微弱领先于 Kimi K2.6,并大幅领先于其他所有开源权重模型。V4 Pro 变体(1.6T 总参数 / 49B 激活 MoE)结合其 1M token 上下文窗口,比此前任何开源权重发布都更显著地缩小了与前沿闭源模型之间的差距。DeepSeek 许可对几乎所有商业用例都足够宽松。缺点在于规模——V4 Pro 部署需要多 GPU 服务器基础设施,超出了单 GPU 或工作站级部署的能力范围。
Strengths
- 目前在综合智能基准上排名第一的开源权重模型
- 1M token 上下文窗口,配合 DeepSeek 稀疏注意力机制带来高效率
- 在单一检查点中统一思考模式(无需单独部署 R1 风格的模型)
- DeepSeek 许可对商业使用普遍友好
Trade-offs
- V4 Pro 需要多 GPU 服务器(8x A100 80GB 或同等配置)——无法在工作站部署
- 较小的 V4 Flash 变体仍至少需要 4 块 GPU