DeepSeek系列核心技术与贡献总结
模型演进路径:从DeepSeek V1到V3及R1
DeepSeek V1(DeepSeek-MoE):DeepSeek系列的首个版本以Mixture-of-Experts稀疏架构奠定基础,标志着参数规模扩张的新思路。相比传统Transformer全参数参与计算的稠密模型,DeepSeek V1通过MoE机制仅激活部分“专家”子网络参与计算,大幅提升了参数总量而计算开销较小。据报道,DeepSeek早期的ChatGPT竞品模型在中英双语语料上训练了约2万亿Token,展示了强大的预训练实力。V1模型在设计上解决了MoE常见的专家知识重叠和负载不均问题。一方面,通过精细划分专家,将每个大型全连接层拆分为多个更小的专家,使每个专家更专注于特定知识领域,同时一次激活更多专家以弥补拆分后的容量。另一方面,引入共享专家机制,从所有专家中独立出一部分“共享专家”专门学习通用知识,每个Token无论怎样路由都会固定经过这些共享专家,从而减少各路由专家重复学习常识的冗余。为避免MoE路由中出现专家塌陷(模型总是选择少数几个专家,导致其他专家训练不足)以及设备间负载不均等问题,DeepSeek V1还在训练中加入了专家级和平局级的负载均