当前位置: 首页 > news >正文

【动手学深度学习】2.5. 自动微分


目录

    • 2.5. 自动微分
      • 1)自动微分的示例
      • 2)非标量变量的反向传播
      • 3)分离计算
      • 4)控制流的梯度计算
      • 5)小结


.

2.5. 自动微分

求导是几乎所有深度学习优化算法的关键步骤。 手动求导是很繁琐且容易出错的。深度学习框架通过自动计算导数,即自动微分来加快求导。

自动微分automatic differentiation):

  • 将计算过程分解为一系列基本数学运算,然后计算每个步骤的导数;

  • 并将它们组合得到最终导数结果。

计算图computational graph):

  • 是一种数据结构,用于表示数学表达式的计算过程。

  • 神经网络中,计算图 = 节点(神经元/参数/数学运算等)+ 边(数据流动方向)。

反向传播backpropagate):

  • 是自动微分在神经网络中的具体实现方式之一。

  • 它从输出端(损失函数)开始,向输入端(模型参数)反向计算梯度。

自动微分的过程:

  • 当设计好一个模型时,深度学习框架会构建一个计算图

  • 这个计算图记录了从输入数据到输出结果的所有操作步骤

  • 随后通过反向传播,自动计算出目标函数关于模型参数的导数。

.

1)自动微分的示例

为了更好理解自动微分,下面对函数 y = 2 x ⊤ x y=2\mathbf{x}^{\top}\mathbf{x} y=2xx(x的点积的2倍)关于列向量x求导。

# 1.定义向量x
import torch
x = torch.arange(4.0, requires_grad=True)
print(x)  # tensor([0., 1., 2., 3.], requires_grad=True)# 2.定义函数 y(x的点积的2倍)
y = 2 * torch.dot(x, x)
print(y)  # tensor(28., grad_fn=<MulBackward0>)# 3.对y进行反向传播,查看y关于x的梯度
y.backward()
print(x.grad)  # tensor([ 0.,  4.,  8., 12.])# 4.手动验证梯度:验证y=2⋅x^T⋅x的梯度为4x
print(x.grad == 4 * x)  # tensor([True, True, True, True])

在默认情况下,PyTorch会累积梯度,我们需要清除之前的值,使用:
x.grad.zero_()

.

2)非标量变量的反向传播

当函数的输出 y 不是标量时,向量y关于向量x的导数的最自然解释是一个矩阵。 对于高阶和高维的y和x,求导的结果可以是一个高阶张量

当调用向量的反向计算时,我们通常会试图计算一批训练样本中每个组成部分的损失函数的导数。 这里,我们的目的不是计算微分矩阵,而是单独计算批量中每个样本的偏导数之和。

示例:计算张量x的平方(y = x * x)关于x的梯度(即导数)。

x = torch.arange(4.0, requires_grad=True)
print(x)  # tensor([0., 1., 2., 3.], requires_grad=True)
y = x * x
print(y)  # tensor([0., 1., 4., 9.], grad_fn=<MulBackward0>)# 输出y是一个向量。可以先进行求和操作,再计算梯度:
y.sum().backward()
print(x.grad)  # tensor([0., 2., 4., 6.])

对“y.sum().backward()”的说明:

假设 x 是一个一维张量 [a, b, c],那么:

  • y = x * x[a², b², c²]

  • y.sum()a² + b² + c²

当我们对 y.sum() 调用 backward() 时,PyTorch 会计算损失(即 y.sum())关于 x 的梯度:

  • 损失对 x 的梯度是 [2a, 2b, 2c]

这个结果会被存储在 x.grad 中。

.

3)分离计算

有时,我们希望将某些计算移动到记录的计算图之外。

比如,在某个计算步骤中,我们不希望“追踪”变量的变化——我们想把它当作一个常量来使用,而不是用来计算梯度的变量。这时,就可以用“分离计算图”的方法,把计算图中的一部分“切断”,让它不参与反向传播。

分离计算:通过.detach()创建与y值相同但无计算历史的新变量u,使反向传播时将u视为常数。

操作计算图梯度结果
不分离y求导z = x*x*xx → y → zdz/dx = 3x²
分离y后求导u = y.detach()x → y & (u) → zdz/dx = u = x²

代码:

# 1.不分离y求导:z = x*x*x → dz/dx = 3x²
x = torch.tensor([1.0, 2.0, 3.0], requires_grad=True)  
y = x * x           # print(y) --> # tensor([1., 4., 9.], grad_fn=<MulBackward0>)
z = y * x           # print(z) --> # tensor([1., 8., 27.], grad_fn=<MulBackward0>) 
z.sum().backward()
print(x.grad)       # tensor([ 3., 12., 27.]) --> x梯度为3x²# 2.分离y后求导:z = u*x(u 为常数)→ dz/dx = u = x²
import torch
x = torch.tensor([1.0, 2.0, 3.0], requires_grad=True)  
y = x * x           # print(y) --> # tensor([1., 4., 9.], grad_fn=<MulBackward0>)
u = y.detach()      # 切断y的计算历史
z = u * x           # print(z) --> # tensor([1., 8., 27.], grad_fn=<MulBackward0>) 
z.sum().backward()
print(x.grad)       # tensor([1., 4., 9.])  --> x梯度为x²
print(x.grad == u)  # tensor([True, True, True]) --> x梯度为u==x²,而非3x²

.

4)控制流的梯度计算

自动微分的强大之处在于,即使我们的函数包含复杂的控制流结构(如条件判断或循环),我们依然能够计算出梯度

在下面的代码中,while循环的迭代次数和if语句的结果都取决于输入a的值。

def f(a):b = a * 2while b.norm() < 1000:b = b * 2if b.sum() > 0:c = belse:c = 100 * breturn c# 计算梯度
a = torch.randn(size=(), requires_grad=True)
d = f(a)
d.backward()

分析上面定义的f函数:

  • 它在其输入a中是分段线性的

  • 换言之,对于任何a,存在某个常量标量k,使得f(a)=k*a,其中k的值取决于输入a;

  • 因此可以用d/a验证梯度是否正确。

print(a.grad == d / a)  # tensor(True)

.

5)小结

  • 深度学习框架可以自动计算导数:我们首先将梯度附加到想要对其计算偏导数的变量上,然后记录目标值的计算,执行它的反向传播函数,并访问得到的梯度。

.


声明:资源可能存在第三方来源,若有侵权请联系删除!

相关文章:

  • 北京大学肖臻老师《区块链技术与应用》公开课:06-BTC-网络
  • PSpice软件快速入门系列--07.如何进行Worst Case最坏情况分析
  • TypeScript 中感叹号(!)两种位置用法
  • 基于粒子滤波的PSK信号解调实现
  • C#上传图片后压缩
  • Java处理动态的属性:字段不固定、需要动态扩展的 JSON 数据结构
  • FastAPI 项目配置管理
  • C/C++ 面试复习笔记(2)
  • << C程序设计语言第2版 >> 练习 1-23 删除C语言程序中所有的注释语句
  • 高级数据结构与算法期末考试速成记录
  • 6个月Python学习计划 Day 9 - 函数进阶用法
  • ros2工程在普通用户下正常编译但root下编译无法成功也不会自动停止
  • 历年南开大学计算机保研上机真题
  • flask入门
  • MySQL数据归档利器:pt-archiver原理剖析与实战指南
  • 阻止H5页面中键盘收起的问题
  • React从基础入门到高级实战:React 高级主题 - React Concurrent 特性:深入探索与实践指南
  • springboot文件上传下载
  • AgenticSeek,开源本地通用AI Agent,自主执行任务
  • 如何优化Hive的查询性能?请详细说明查询优化的各个层面(SQL优化、配置优化、资源优化等)和具体方法。
  • 网站建设与管理试卷 判断题/排名优化公司
  • 界面设计规范/优化营商环境条例全文
  • 陕西网站制作公司哪家好/搜索引擎市场份额2023
  • wordpress制作婚礼/seo分析
  • 杭州下城网站建设/江苏做网站的公司有哪些
  • 日照网站建设哪家公司好/策划书模板