当前位置: 首页 > news >正文

模型训练实用之梯度检查点

一、什么是梯度检查点(Gradient Checkpointing)?

核心思想

在反向传播时,不保存所有中间激活值,而是按需重新计算部分激活值,以牺牲计算时间为代价减少内存占用。

技术细节
  1. 激活值存储的痛点
    • 前向传播时,所有中间激活值需保存以用于反向传播。
    • 显存占用与模型深度和序列长度成正比(如 Transformer 的显存占用随层数平方增长)。
  2. 实现原理
    • 将模型分为多个“段”(Segment),每段仅保留输入和输出。
    • 反向传播时,从最近的检查点重新运行前向传播,计算该段的中间激活值。
    • 显存占用从 O ( N ) O(N) O(N) 降至 O ( N ) O(\sqrt {N}) O(N )(N 为计算图节点数)。
优势
  • 显存节省:激活值内存减少 60–75%(如 BERT-large 从 16GB 降至 4GB)。
  • 支持更大模型/更长序列:突破 GPU 显存限制。
代价
  • 计算时间增加:因重新计算激活值,训练时间增加 20–30%
适用场景
  • 显存不足以容纳完整激活值的大模型。
  • 长序列任务(如文本生成、DNA 序列分析)。

二、梯度检查点的核心原理

1. 传统反向传播的显存问题
  • 正常流程
    1. 前向传播时,保存所有中间激活值。
    2. 反向传播时,利用这些激活值计算梯度。

如果按照正常流程训练模型的话很容易会出现显存瓶颈(中间激活值的存储量随网络深度线性增长)。

2. 梯度检查点的优化思路
  • 关键思想:不保存所有中间激活值,而是仅保存部分关键节点(检查点)的激活值
  • 实现方式
    1. 将网络划分为若干段(Segment)。
    2. 前向传播时,仅保存每段起始点的激活值。
    3. 反向传播时,从检查点重新计算该段内的中间激活值。
  • 代价:需要重新计算部分前向传播过程,增加了计算时间(通常增加20%~30%)。

举个例子


1. 标准前向-反向传播的内存消耗

假设一个四层网络(输入层→隐藏层1→隐藏层2→输出层),在标准训练流程中:

  • 前向传播:计算并存储每一层的激活值(如隐藏层1的输出 h 1 h_1 h1、隐藏层2的输出 h 2 h_2 h2)至显存,以便后续反向传播使用。
  • 反向传播:从损失函数开始,依次计算梯度并更新权重,过程中需访问所有保存的激活值(如 h 1 , h 2 h_1, h_2 h1,h2)。
  • 内存占用:若每层激活值占用 1 M 1 M 1M 内存,则总内存为 4 M 4M 4M(输入层+隐藏层1+隐藏层2+输出层)。

2. 梯度检查点的内存优化

梯度检查点通过仅保留部分激活值,并在反向传播时重新计算未保存的激活值,从而减少内存需求。例如:

  • 设置检查点:仅保存输入层和输出层的激活值( h 0 h_0 h0 h 2 h_2 h2),隐藏层1的激活值 h 1 h_1 h1 不保存。
  • 前向传播:计算所有激活值,但仅保存 h 0 h_0 h0 h 2 h_2 h2,内存占用降至 2 M 2M 2M
  • 反向传播
    1. 计算输出层梯度时,直接使用保存的 h 2 h_2 h2
    2. 计算隐藏层1梯度时,从 h 0 h_0 h0 重新运行前向传播得到 h 1 h_1 h1,再计算梯度。
    3. 计算隐藏层2梯度时,从 h 1 h_1 h1 重新运行前向传播得到 h 2 h_2 h2(因 h 2 h_2 h2 已保存,此步骤可跳过)。

通过这种方式,内存占用减少50%,但计算量增加约33%(需额外进行一次前向计算)。


3. 技术细节与权衡

  • 显存-计算的平衡:梯度检查点通过牺牲计算效率换取内存节省。例如,保存 k k k 个检查点时,内存复杂度从 O ( n ) O(n) O(n) 降至 O ( n ) O(\sqrt{n}) O(n ),但计算量增加约 O ( n ) O(n) O(n)
  • 动态优化策略:某些实现(如FlashAttention)进一步优化反向传播流程,避免存储完整的中间结果(如注意力矩阵),使内存占用从 O ( N 2 ) O(N^2) O(N2) 降至 O ( N ) O(N) O(N)
  • 适用场景:尤其适用于深层模型(如Transformer)或显存受限的环境(如训练大语言模型时)。

三、梯度检查点的实现方式

1. 手动分段(以PyTorch为例)
import torch
from torch.utils.checkpoint import checkpoint# 定义网络分段(例如将网络分为3段)
class MyModel(torch.nn.Module):def __init__(self):super().__init__()self.block1 = torch.nn.Sequential(...)  # 第一段self.block2 = torch.nn.Sequential(...)  # 第二段self.block3 = torch.nn.Sequential(...)  # 第三段def forward(self, x):# 第一段正常计算并保存激活值x = self.block1(x)# 第二段使用检查点(不保存中间激活值)x = checkpoint(self.block2, x)# 第三段正常计算x = self.block3(x)return x
2. 自动分段(深度学习框架支持)
  • PyTorch:通过torch.utils.checkpoint.checkpoint函数自动选择分段。
  • TensorFlow:使用tf.recompute_grad装饰器或tf.checkpoint策略。

四、梯度检查点的显存优化效果

假设一个网络有L层,每层激活值占用显存M:

  • 传统方法:显存占用为L×M。
  • 梯度检查点(每K层设一个检查点):显存占用为 L K × M \frac{L}{K} × M KL×M

示例

  • L=100, M=1GB, K=10时:
    • 传统方法显存占用:100×1GB=100GB。
    • 检查点方法显存占用:10×1GB=10GB(节省90%显存)。

五、梯度检查点的局限性

  1. 计算时间增加:需重新计算部分前向传播,训练时间延长约20%~30%。
  2. 分段策略影响效率:分段过细会增加重算次数,分段过粗会减少显存节省。
  3. 不适用于所有算子:某些自定义操作(如不可微操作)可能导致检查点失效。

六、最佳实践

1. 分段策略选择
  • 平衡显存与计算:通常每5~10层设一个检查点。
  • 避免关键层分段:对计算密集型层(如注意力机制)尽量少分段。
2. 与其他技术结合
  • 混合精度训练:使用FP16减少激活值显存(与梯度检查点互补)。
  • 梯度累积:进一步降低显存需求(见下方代码示例)。
3. PyTorch代码示例(结合检查点与混合精度)
from torch.utils.checkpoint import checkpoint
from torch.cuda.amp import autocastclass MyModel(torch.nn.Module):def __init__(self):super().__init__()self.layer1 = torch.nn.Linear(1024, 1024)self.layer2 = torch.nn.Linear(1024, 1024)def forward(self, x):# 第一层正常计算x = self.layer1(x)# 第二层使用检查点 + 混合精度def run_layer2(x):with autocast():return self.layer2(x)x = checkpoint(run_layer2, x)return x

七、适用场景

  1. 训练超大模型:如GPT-3、T5等千亿参数模型。
  2. 显存受限的硬件:单卡显存小于24GB(如RTX 3090/4090)。
  3. 长序列处理:Transformer模型处理长文本或视频帧序列。

总结

梯度检查点通过选择性保存激活值 + 反向传播时重算,以时间换空间,是训练大模型的必备技术。尽管会牺牲部分计算效率,但在显存不足时,它是实现模型训练的唯一可行方案。结合混合精度、梯度累积等技术,可进一步提升资源利用率。

相关文章:

  • 头歌实验MySQL数据库 - 复杂查询(二)
  • 深入解析Semantic Kernel中的聊天历史记录对象
  • Gradio全解20——Streaming:流式传输的多媒体应用(6)——RT-DETR模型构建视频流目标检测系统
  • STM32教程:DMA原理及结构分析(基于STM32F103C8T6最小系统板标准库开发)*详细教程*
  • C++类与对象深度解析:从基础到应用
  • 《Java 高并发程序设计》笔记
  • 【言语理解】片段阅读之标题拟定(5)
  • Deepseek基础-api key申请及应用(java)、硅基流动api key申请及应用(dify)
  • 《Effective java》 第三版 核心笔记
  • 怎么才能找到自己的天赋?
  • 图片批量处理JPGC 深度测评:智能压缩 + 多线程加速
  • RFID(无线射频识别)技术在牧场中的结合智能助手应用
  • 编译原理期末重点-个人总结——1 概论
  • 创建线程的几种方式
  • 第13项三期,入组1123例:默沙东启动TROP2 ADC+PD-1子宫内膜癌头对头临床
  • C++ 重载:解锁符号与函数的 “变形魔法”
  • labelimg快捷键
  • Tensorrt 基础入门
  • C语言之初识指针
  • C++ -- 内存管理
  • 人民日报今日谈:坚决克服麻痹思想,狠抓工作落实
  • 美国警方:爱达荷州交通事故致7人死亡,8名伤者预计无生命危险
  • AI世界的年轻人|与总书记交流过的“00后”,渴望紧握时代赋予的接力棒
  • 著名医学翻译家王贤才逝世,享年91岁
  • 十二届上海市委第六轮巡视全面进驻,巡视组联系方式公布
  • 澎湃回声丨23岁小伙“被精神病”8年续:今日将被移出“重精”管理系统