当前位置: 首页 > news >正文

【动手学深度学习】2.4. 微积分


目录

    • 2.4. 微积分
      • 1)导数和微分
      • 2)偏导数
      • 3)梯度
      • 4)链式法则
      • 5)小结


.

2.4. 微积分

微积分的起源

  • 古希腊人通过逼近法(多边形边数↑ → 面积逼近圆)发展出积分的思想。

  • 微分,在 2000 多年后被发明,主要用于解决优化问题。

深度学习中的应用

  • 优化(optimization):用模型拟合观测数据的过程;

  • 泛化(generalization):数学原理和实践者的智慧,能够指导我们生成出有效性超出用于训练的数据集本身的模型。

微积分是深度学习中不可或缺的一部分,主要用于优化问题。为了帮助更好理解深度学习中的优化问题,将介绍深度学习中常用的微分知识。

.

1)导数和微分

导数是微积分基础概念之一。可解释为函数相对其变量的瞬时变化率。假设我们有个函数 f(x) ,其导数定义为:
f ′ ( x ) = lim ⁡ h → 0 f ( x + h ) − f ( x ) h f'(x) = \lim_{h \to 0} \frac{f(x+h) - f(x)}{h} f(x)=h0limhf(x+h)f(x)

导数的计算在深度学习中非常重要,因为它是几乎所有优化算法的关键步骤。

(1)代码示例

以下是一个计算函数 f ( x ) = 3 x 2 − 4 x f(x) = 3x^2 - 4x f(x)=3x24x在 x = 1 处导数的代码示例:

import numpy as npdef f(x):return 3 * x ** 2 - 4 * xdef numerical_lim(f, x, h):return (f(x + h) - f(x)) / hh = 0.1
for i in range(5):print(f'h={h:.5f}, numerical limit={numerical_lim(f, 1, h):.5f}')h *= 0.1

输出结果:

h=0.10000, numerical limit=2.30000
h=0.01000, numerical limit=2.03000
h=0.00100, numerical limit=2.00300
h=0.00010, numerical limit=2.00030
h=0.00001, numerical limit=2.00003

从结果可以看出,当 h 趋近于 0 时,(f(x + h) - f(x)) / h 的数值结果接近 2 。

(2)导数和微分符号

对于导数有:

f ′ ( x ) = y ′ = d y d x = d f d x = d d x f ( x ) = D f ( x ) = D x f ( x ) f'(x) = y' = \frac{dy}{dx} = \frac{df}{dx} = \frac{d}{dx} f(x) = Df(x) = D_x f(x) f(x)=y=dxdy=dxdf=dxdf(x)=Df(x)=Dxf(x)

其中, d d x 和 D \frac{d}{dx}和D dxdD微分运算符,表示微分操作。 对常见函数求微分:

  • D C = 0 DC = 0 DC=0 (C是一个常数)

  • D x n = n x n − 1 Dx^n = nx^{n-1} Dxn=nxn1幂律(power rule),n是任意实数)

  • D e x = e x De^x = e^x Dex=ex

  • D ln ⁡ ( x ) = 1 / x D\ln(x) = 1/x Dln(x)=1/x

微分法则:

若 f 和 g 都是可微的函数,且 C 是常数,那么以下法则适用:

  • 常数相乘法则: d d x [ C f ( x ) ] = C d d x f ( x ) \frac{d}{dx} [Cf(x)] = C \frac{d}{dx} f(x) dxd[Cf(x)]=Cdxdf(x)

  • 加法法则: d d x [ f ( x ) + g ( x ) ] = d d x f ( x ) + d d x g ( x ) \frac{d}{dx} [f(x) + g(x)] = \frac{d}{dx} f(x) + \frac{d}{dx} g(x) dxd[f(x)+g(x)]=dxdf(x)+dxdg(x)

  • 乘法法则: d d x [ f ( x ) g ( x ) ] = f ( x ) d d x [ g ( x ) ] + g ( x ) d d x [ f ( x ) ] \frac{d}{dx} [f(x)g(x)] = f(x) \frac{d}{dx} [g(x)] + g(x) \frac{d}{dx} [f(x)] dxd[f(x)g(x)]=f(x)dxd[g(x)]+g(x)dxd[f(x)]

  • 除法法则: d d x [ f ( x ) g ( x ) ] = g ( x ) d d x [ f ( x ) ] − f ( x ) d d x [ g ( x ) ] [ g ( x ) ] 2 \frac{d}{dx} \left[\frac{f(x)}{g(x)}\right] = \frac{g(x) \frac{d}{dx} [f(x)] - f(x) \frac{d}{dx} [g(x)]}{[g(x)]^2} dxd[g(x)f(x)]=[g(x)]2g(x)dxd[f(x)]f(x)dxd[g(x)]

.

2)偏导数

目前为止,我们只讨论了仅含一个变量的函数的微分。在深度学习中,函数通常依赖于许多变量。因此,我们需要将微分的思想推广到多元函数(multivariate function)上。

y = f ( x 1 ​ , x 2 ​ , … , x n ​ ) y=f(x_1​,x_2​,…,x_n​) y=f(x1,x2,,xn) 是一个具有 n 个变量的函数。y 关于第 i 个参数 x i x_i xi​ 的偏导数(partial derivative)为:

∂ y ∂ x i = lim ⁡ h → 0 f ( x 1 , … , x i − 1 , x i + h , x i + 1 , … , x n ) − f ( x 1 , … , x i , … , x n ) h \frac{\partial y}{\partial x_i} = \lim_{h \to 0} \frac{f(x_1, \ldots, x_{i-1}, x_i + h, x_{i+1}, \ldots, x_n) - f(x_1, \ldots, x_i, \ldots, x_n)}{h} xiy=h0limhf(x1,,xi1,xi+h,xi+1,,xn)f(x1,,xi,,xn)

为了计算​ ∂ y ∂ x i \frac{\partial y}{\partial x_i} xiy,我们可以简单地将 x 1 ​ , … , x i − 1 ​ , x i + 1 ​ , … , x n x_1​,…,x_{i−1}​,x_{i+1}​,…,x_n x1,,xi1,xi+1,,xn​ 看作常数,并计算 y 关于 x i x_i xi​ 的导数。对于偏导数的表示,以下是等价的:

∂ y ∂ x i = ∂ f ∂ x i = f x i = f i = D i f = D x i f \frac{\partial y}{\partial x_i} = \frac{\partial f}{\partial x_i} = f_{x_i} = f_i = D_i f = D_{x_i} f xiy=xif=fxi=fi=Dif=Dxif

.

3)梯度

我们可以连结一个多元函数对其所有变量的偏导数,以得到该函数的梯度(gradient)向量。具体而言,设函数 f : R n → R f : \mathbb{R}^{n} \to \mathbb{R} f:RnR 的输入是一个列向量 x = [ x 1 , x 2 , … , x n ] ⊤ x = [x_1, x_2, \ldots, x_n]^\top x=[x1,x2,,xn],并且输出是一个标量。函数 f ( x ) f(x) f(x) 相对于 x x x 的梯度是一个包含 n n n 个偏导数的向量:

∇ x f ( x ) = [ ∂ f ( x ) ∂ x 1 , ∂ f ( x ) ∂ x 2 , ⋯ , ∂ f ( x ) ∂ x n ] ⊤ \nabla_{\mathbf{x}} f(\mathbf{x}) = \left[ \frac{\partial f(\mathbf{x})}{\partial x_1}, \frac{\partial f(\mathbf{x})}{\partial x_2}, \cdots, \frac{\partial f(\mathbf{x})}{\partial x_n} \right]^\top xf(x)=[x1f(x),x2f(x),,xnf(x)]

其中 ∇ x f ( x ) \nabla_x f(x) xf(x) 通常在没有歧义时简写为 ∇ f ( x ) \nabla f(x) f(x)

假设 x x x n n n 维向量,在微分多元函数中经常使用以下规则:

  • 对于所有 A ∈ R m × n A \in \mathbb{R}^{m \times n} ARm×n,有 ∇ x ( A x ) = A ⊤ \nabla_x (Ax) = A^\top x(Ax)=A

  • 对于所有 A ∈ R n × m A \in \mathbb{R}^{n \times m} ARn×m,有 ∇ x ( x ⊤ A ) = A \nabla_x (x^\top A) = A x(xA)=A

  • 对于所有 A ∈ R n × n A \in \mathbb{R}^{n \times n} ARn×n,有 ∇ x ( x ⊤ A x ) = ( A + A ⊤ ) x \nabla_x (x^\top A x) = (A + A^\top)x x(xAx)=(A+A)x

  • ∇ x ∥ x ∥ 2 = ∇ x ( x ⊤ x ) = 2 x \nabla_x \|x\|^2 = \nabla_x (x^\top x) = 2x xx2=x(xx)=2x

同样,对于任何矩阵 X X X,有 ∇ X ∥ X ∥ F 2 = 2 X \nabla_X \|X\|_F^2 = 2X XXF2=2X。梯度在深度学习优化算法的设计中具有重要作用。

.

4)链式法则

然而,上面方法可能很难找到梯度。这是因为在深度学习中,多元函数通常是复合(composite)的,所以难以应用上述任何规则来微分这些函数。幸运的是,链式法则可以被用来微分复合函数

让我们先考虑单变量函数。假设函数 y = f ( u ) y = f(u) y=f(u) u = g ( x ) u = g(x) u=g(x) 都是可微的,根据链式法则:

d y d x = d y d u ⋅ d u d x \frac{dy}{dx} = \frac{dy}{du} \cdot \frac{du}{dx} \quad dxdy=dudydxdu

现在考虑一个更一般的场景,即函数具有任意数量的变量的情况。假设可微分函数 y y y 有变量 u 1 , u 2 , … , u m u_1, u_2, \ldots, u_m u1,u2,,um,其中每个可微分函数 u i u_i ui 都有变量 x 1 , x 2 , … , x n x_1, x_2, \ldots, x_n x1,x2,,xn。注意, y y y x 1 , x 2 , … , x n x_1, x_2, \ldots, x_n x1,x2,,xn 的函数。对于任意 i = 1 , 2 , … , n i = 1, 2, \ldots, n i=1,2,,n,链式法则给出:

∂ y ∂ x i = ∂ y ∂ u 1 ⋅ ∂ u 1 ∂ x i + ∂ y ∂ u 2 ⋅ ∂ u 2 ∂ x i + ⋯ + ∂ y ∂ u m ⋅ ∂ u m ∂ x i \frac{\partial y}{\partial x_i} = \frac{\partial y}{\partial u_1} \cdot \frac{\partial u_1}{\partial x_i} + \frac{\partial y}{\partial u_2} \cdot \frac{\partial u_2}{\partial x_i} + \cdots + \frac{\partial y}{\partial u_m} \cdot \frac{\partial u_m}{\partial x_i} \quad xiy=u1yxiu1+u2yxiu2++umyxium

.

5)小结

  • 微分和积分是微积分的两个分支,前者可以应用于深度学习中的优化问题。

  • 导数可以被解释为函数相对于其变量的瞬时变化率,它也是函数曲线的切线的斜率。

  • 梯度是一个向量,其分量是多变量函数相对于其所有变量的偏导数。

  • 链式法则可以用来微分复合函数。

.


声明:资源可能存在第三方来源,若有侵权请联系删除!

相关文章:

  • AI系统提示词:DeepSeek R1(0528)
  • 基于Python的单斜式ADC建模与仿真分析
  • 【仿生机器人】极具前瞻性的架构——认知-情感-记忆“三位一体的仿生机器人系统架构
  • ubuntu系统安装Pyside6报错解决
  • 大语言模型中的注意力机制详解
  • openssl-aes-ctr使用openmp加速
  • Express教程【001】:Express创建基本的Web服务器
  • 云原生时代 Kafka 深度实践:03进阶特性与最佳实践
  • QNAP MEMOS 域名访问 SSL(Lucky)
  • Kafka多线程Consumer
  • 测试用例篇章
  • Redisson学习专栏(三):高级特性与实战(Spring/Spring Boot 集成,响应式编程,分布式服务,性能优化)
  • 测试用例及黑盒测试方法
  • cv2.dnn.NMSBoxes() 要求输入边界框格式
  • CppCon 2014 学习:Lock-Free Programming
  • AI入门示例
  • mongodb nosql数据库笔记
  • Object转Map集合
  • 银行数字化应用解决方案
  • 位置规划模式和周期同步位置模式区别
  • 浙江瑞通建设集团网站/广州做seo整站优化公司
  • 贵州5g网站建设/广告类的网站
  • 电子商务网页设计代码/广州seo优化费用
  • 陕西建设机械官方网站/公司官网制作多少钱
  • 呼和浩特网站设计公司/可以访问违规网站的浏览器
  • 关于网站建设的投标书/seo标题优化分析范文