当前位置: 首页 > news >正文

【论文学习】DeepSeek-V3 总结

文章目录

  • Abstract
  • 1. Introduction
  • 2. Architecture
    • 2.1 Basic Architecture
    • 2.2 Multi-Token Prediction
  • 3. Infrastructures
    • 3.1 Compute Clusters
    • 3.2 Training Framework
    • 3.3 FP8 Training
  • 4. Pre-Training
    • 4.1 Data Construction
    • 4.2 Hyper-Parameters
    • 4.3 Long Context Extension
    • 4.4 Evaluations
  • 5. Post-Training
    • 5.1 Supervised Fine-Tuning
    • 5.2 Reinforcement Learning
    • 5.3 Evaluations
  • 6. Conclusion, Limitations, and Future Directions

DeepSeek-V3 论文

Abstract

本文介绍了 DeepSeek-V3,这是一个拥有 6710 亿总参数的混合专家(MoE)语言模型,每次激活 370 亿参数。为了实现高效的推理和成本效益的训练,DeepSeek-V3 采用了多头潜在注意力(MLA)和 DeepSeekMoE 架构,并引入了无辅助损失的负载均衡策略以及多令牌预测训练目标。DeepSeek-V3 在 14.8 万亿个高质量、多样化的令牌上进行预训练,随后经过监督式微调和强化学习阶段,以充分发挥其能力。全面评估表明,DeepSeek-V3 的性能优于其他开源模型,并且与领先的闭源模型相当。尽管性能出色,但 DeepSeek-V3 的完整训练仅需 278.8 万 H800 GPU 小时,训练过程极为稳定,未出现任何不可恢复的损失峰值或回滚操作。模型检查点可在 GitHub 上找到。

1. Introduction

近年来,大型语言模型(LLMs)迅速迭代和演变,逐渐缩小与人工通用智能(AGI)的差距。除了闭源模型外,开源模型也在努力追赶。为了进一步提升开源模型的能力,我们推出了 DeepSeek-V3,这是一个拥有 6710 亿参数的 MoE 模型,每次激活 370 亿参数。DeepSeek-V3 在架构上采用了 MLA 和 DeepSeekMoE,并引入了无辅助损失的负载均衡策略以及多令牌预测训练目标,以提升模型性能。此外,DeepSeek-V3 支持 FP8 混合精度训练,并通过训练框架的优化,实现了高效的训练和推理。

2. Architecture

DeepSeek-V3 的基本架构基于 Transformer 框架,采用 MLA 和 DeepSeekMoE,以实现高效的推理和经济的训练。此外,DeepSeek-V3 还引入了无辅助损失的负载均衡策略和多令牌预测训练目标。

2.1 Basic Architecture

DeepSeek-V3 的基本架构包括多头潜在注意力(MLA)和 DeepSeekMoE。MLA 通过低秩联合压缩注意力键和值,减少了推理过程中的 KV 缓存。DeepSeekMoE 则通过引入更细粒度的专家和共享专家,优化了训练效率。与传统 MoE 架构不同,DeepSeek-V3 使用无辅助损失的负载均衡策略,通过动态调整专家的偏置项,确保负载均衡,同时避免了辅助损失对模型性能的负面影响。

2.2 Multi-Token Prediction

受 Gloeckle 等人(2024 年)的启发,DeepSeek-V3 采用了多令牌预测(MTP)训练目标,扩展了每个位置的预测范围,以预测多个未来令牌。MTP 通过增加训练信号的密度,可能提高数据效率,并使模型能够更好地规划其表示,以预测未来令牌。

3. Infrastructures

DeepSeek-V3 的训练依赖于高效的计算集群和训练框架。我们采用了 HAI-LLM 框架,并实现了多项工程优化,以支持大规模 MoE 模型的训练。

3.1 Compute Clusters

DeepSeek-V3 在一个包含 2048 个 NVIDIA H800 GPU 的集群上进行训练,节点之间通过 InfiniBand(IB)和 NVLink 互联。

3.2 Training Framework

DeepSeek-V3 的训练框架采用了 16 路流水线并行、64 路专家并行和 ZeRO-1 数据并行。我们设计了 DualPipe 算法,通过重叠计算和通信阶段,减少了流水线气泡,并实现了高效的跨节点 MoE 训练。

3.3 FP8 Training

DeepSeek-V3 引入了 FP8 混合精度训练框架,通过细粒度量化和高精度累加策略,扩展了 FP8 格式的动态范围,实现了高效的训练。

4. Pre-Training

DeepSeek-V3 在 14.8 万亿个高质量、多样化的令牌上进行预训练,采用了多阶段上下文扩展和监督式微调,以提升模型性能。

4.1 Data Construction

预训练语料库经过优化,增加了数学和编程样本的比例,并扩展了多语言覆盖范围。数据处理流程经过改进,以减少冗余并保持语料库的多样性。

4.2 Hyper-Parameters

DeepSeek-V3 的 Transformer 层为 61 层,隐藏维度为 7168。模型使用了 128 个注意力头,每个头的维度为 128。MLA 的 KV 压缩维度为 512,查询压缩维度为 1536。MoE 层包含 1 个共享专家和 256 个路由专家,每个令牌激活 8 个专家。

4.3 Long Context Extension

DeepSeek-V3 通过两阶段扩展训练,将上下文窗口从 4K 扩展到 32K,再扩展到 128K,以支持长文本输入。

4.4 Evaluations

DeepSeek-V3 在多个基准测试中表现出色,尤其是在代码和数学领域。其性能优于其他开源模型,并与领先的闭源模型相当。

5. Post-Training

DeepSeek-V3 的后训练阶段包括监督式微调和强化学习,以进一步提升模型性能。

5.1 Supervised Fine-Tuning

我们为 DeepSeek-V3 准备了包含 150 万实例的指令微调数据集,覆盖多个领域。

5.2 Reinforcement Learning

我们采用了基于规则的奖励模型和基于模型的奖励模型,结合组相对策略优化(GRPO),以提升模型性能。

5.3 Evaluations

DeepSeek-V3 在多个标准和开放式基准测试中表现出色,尤其是在代码和数学领域。其性能优于其他开源模型,并与领先的闭源模型相当。

6. Conclusion, Limitations, and Future Directions

DeepSeek-V3 是目前最强的开源模型之一,其性能与领先的闭源模型相当,同时保持了经济的训练成本。尽管如此,DeepSeek-V3 仍存在一些局限性,例如部署单元较大,可能对小型团队造成负担。未来,我们将继续研究和改进模型架构,探索更高效的训练和推理方法,并扩展模型的推理能力和数据规模。

相关文章:

  • 002简单MaterialApp主题和Scaffold脚手架
  • 要实现将JSON格式数据动态生成思维导图图片,可以使用`pygraphviz`库结合`json`解析。以下是完整实现代码:
  • vmware系统磁盘扩容
  • 数据开发面试:DQL,
  • seacmsv9注入管理员账号密码+orderby+limit
  • 【前端】【面试】【树】JavaScript 树形结构与列表结构的灵活转换:`listToTree` 与 `treeToList` 函数详解
  • 基于Pydantic封装的通用模型在API请求验证中的应用
  • Python中的函数是什么?如何定义和调用它们?
  • 第十一站:深度学习模型的训练与评估
  • Cramér-Rao界:参数估计精度的“理论底线”
  • IO/网络IO基础全览
  • PostgreSQL的学习心得和知识总结(一百七十)|深入理解PostgreSQL数据库之 处理HAVING子句 的使用和实现
  • HaProxy基本配置详解
  • sort_values、sort 和 sorted 的区别与用法详解
  • 网络安全学习-常见安全漏洞检测以及修复方法-1
  • 2025面试Go真题第一场
  • [算法--前缀和] 二维前缀和
  • ReentrantLock 用法与源码剖析笔记
  • 数据库的基本操作
  • 前端项目部署阻止用户打开控制台
  • 阿里巴巴网站本土化建设/网站seo优化心得
  • 做网站的软件去哪里买/sem是什么仪器
  • 有哪些网站是做分期付款的/网络营销的基本特征有哪七个
  • 建设工程国检中心网站/西安专业网络推广公司
  • 如何自己做网站界面/腾讯会议价格
  • 西柳网站建设/关键词搜索引擎工具爱站