DeepSeek-V3-0324 版本升级概要
DeepSeek-V3-0324 魔搭社区汇聚各领域最先进的机器学习模型,提供模型探索体验、推理、训练、部署和应用的一站式服务。
https://modelscope.cn/models/deepseek-ai/DeepSeek-V3-0324
发布背景与改进
根DeepSeek-V3-0324 展示了以下关键改进:
-
推理性能提升:研究表明,该模型在多个基准测试中表现优异。例如,MMLU-Pro 从 75.9% 提升至 81.2%(+5.3%),GPQA 从 59.1% 提升至 68.4%(+9.3%),AIME 从 39.6% 提升至 59.4%(+19.8%),LiveCodeBench 从 39.2% 提升至 49.2%(+10.0%)。在 MMLU-Pro 达到 81.6%,MATH-500 达到 90.8%,领先于 Qwen-Max、GPT-4.5 和 Claude-Sonnet-3.7。
-
前端开发技能增强:模型在代码可执行性和网页美观性上有所改进,特别适合生成更具吸引力的前端页面和游戏界面。
-
工具使用能力提升:官方文档显示,模型在功能调用(Function Calling)方面准确性提高,修复了之前版本的问题,支持 JSON 输出和 FIM 完成。
使用建议
对于非复杂推理任务,建议关闭“DeepThink”功能以优化性能。“DeepThink”似乎是一个深度推理模式,可能增加计算开销,适合复杂任务。
- 系统提示:在官方DeepSeek网页/应用中使用带有特定日期的系统提示。
- 温度参数设置:在Web和应用环境中,模型温度参数Tmodel设置为0.3,通过API调用时,温度1.0将映射到0.3。
- 文件上传和网页搜索提示:提供了文件上传和网页搜索的提示模板,包括如何引用搜索结果和格式化回答。
性能与基准测试
DeepSeek-V3-0324 在以下基准测试中表现突出:
基准测试 | DeepSeek-V3-0324 表现 | 与其他模型比较 |
---|---|---|
MMLU-Pro | 81.6% | 领先 Qwen-Max (75.8%)、GPT-4.5 (71.4%) |
GPOA | 90.8% | 领先 Qwen-Max (87.2%)、GPT-4.5 (84.0%) |
MATH-500 | 90.8% | 领先 Qwen-Max (68.7%)、GPT-4.5 (65.2%) |
AIME 2024 | 35.4% | 领先 Qwen-Max (25.1%)、GPT-4.5 (22.3%) |
LiveCodeBench | 69.2% | 领先 Qwen-Max (41.3%)、GPT-4.5 (38.7%) |
这些数据表明,DeepSeek-V3-0324 在数学推理和代码生成方面表现尤为突出。
许可与开放源代码
模型采用 MIT 许可,与 DeepSeek-R1 相同,开放源代码权重可在 魔搭社区 / Hugging Face 下载。DeepSeek-V3-0324的模型结构与DeepSeek-V3相同,可参考DeepSeek-V3仓库获取本地运行信息(GitHub)。
技术细节与架构
DeepSeek-V3-0324 采用混合专家(MoE)架构,总参数为 685 亿,每次任务仅激活约 37 亿参数,大幅减少运算需求,显著提高推理效率。(原理与之前的DeepSeek-V3和R1一样)
其上下文长度为 131k,输出速度达 20 令牌/秒,适合高性能需求。
小结
DeepSeek-V3-0324 是 DeepSeek 的最新 AI 模型,推理性能、前端开发和工具使用能力显著提升,采用 MIT 许可,开放源代码。
关键引用
-
DeepSeek-V3-0324 - 魔搭社区
-
Hugging Face DeepSeek-V3-0324
-
DeepSeek-V3 GitHub 仓库
-
DeepSeek V3-0324 Medium 文章