当前位置: 首页 > wzjs >正文

网站工程师的职责网络搜索引擎

网站工程师的职责,网络搜索引擎,网站服务器怎么看是哪个厂家的,重庆奉节网站建设公司本文详解深度学习中常见的归一化方法。 【归一化是将数据按比例缩放,使之落入一个特定的区间】目录 1. 批量归一化(Batch Normalization,BN)1.1 数学原理1.2 代码示例 2. 层归一化(Layer Normalization,LN&…
本文详解深度学习中常见的归一化方法。
【归一化是将数据按比例缩放,使之落入一个特定的区间】

目录

  • 1. 批量归一化(Batch Normalization,BN)
    • 1.1 数学原理
    • 1.2 代码示例
  • 2. 层归一化(Layer Normalization,LN)
    • 2.2 代码示例
  • 3. 实例归一化(Instance Normalization,IN)
    • 3.1 数学原理
    • 3.2 代码示例​

1. 批量归一化(Batch Normalization,BN)

1.1 数学原理

对于一个包含 m m m个样本的小批量数据 x = { x ( 1 ) , x ( 2 ) , ⋯ , x ( m ) } x = \{x^{(1)}, x^{(2)}, \cdots, x^{(m)}\} x={x(1),x(2),,x(m)}, 在第 k k k个特征维度上,批量归一化的步骤如下:

  1. 计算该维度上的均值 μ k \mu_k μk:
    μ k = 1 m ∑ i = 1 m x k ( i ) \mu_k = \frac{1}{m}\sum_{i = 1}^{m}x^{(i)}_k μk=m1i=1mxk(i)

  2. 计算该维度上的方差 σ k 2 \sigma^2_k σk2:
    σ k 2 = 1 m ∑ i = 1 m ( x k ( i ) − μ k ) 2 \sigma^2_k = \frac{1}{m}\sum_{i = 1}^{m}(x^{(i)}_k - \mu_k)^2 σk2=m1i=1m(xk(i)μk)2

  3. 对该维度上的每个样本进行归一化:
    x ^ k ( i ) = x k ( i ) − μ k σ k 2 + ϵ \hat{x}^{(i)}_k = \frac{x^{(i)}_k - \mu_k}{\sqrt{\sigma^2_k + \epsilon}} x^k(i)=σk2+ϵ xk(i)μk
    其中 ϵ 是一个很小的常数,用于防止分母为零

1.2 代码示例

在 PyTorch 中,可以使用torch.nn.BatchNorm2d来实现批量归一化:

import torch
import torch.nn as nn# 定义一个批量归一化层,输入通道数为3
bn = nn.BatchNorm2d(3)# 模拟一个小批量的图像数据,形状为 (batch_size, channels, height, width)
x = torch.randn(16, 3, 32, 32)# 进行批量归一化
y = bn(x)
print(y.shape)

2. 层归一化(Layer Normalization,LN)

层归一化是对单个样本的所有特征维度进行归一化。对于一个样本 x = [ x 1 , x 2 , ⋯ , x n ] x = [x_1, x_2, \cdots, x_n] x=[x1,x2,,xn], 其归一化步骤如下:

  1. 计算该样本的均值 μ \mu μ:
    μ = 1 n ∑ i = 1 n x i \mu = \frac{1}{n}\sum_{i = 1}^{n}x_i μ=n1i=1nxi

  2. 计算该样本的方差 σ 2 \sigma^2 σ2:
    σ 2 = 1 n ∑ i = 1 n ( x i − μ ) 2 \sigma^2 = \frac{1}{n}\sum_{i = 1}^{n}(x_i - \mu)^2 σ2=n1i=1n(xiμ)2

  3. 对该样本的每个特征进行归一化:
    x ^ i = x i − μ σ 2 + ϵ \hat{x}_i = \frac{x_i - \mu}{\sqrt{\sigma^2 + \epsilon}} x^i=σ2+ϵ xiμ

2.2 代码示例

在 PyTorch 中,可以使用torch.nn.LayerNorm来实现层归一化:

import torch
import torch.nn as nn# 定义一个层归一化层,归一化的维度为32
ln = nn.LayerNorm(32)# 模拟一个样本数据,形状为 (batch_size, sequence_length, features)
x = torch.randn(16, 10, 32)# 进行层归一化
y = ln(x)
print(y.shape)

3. 实例归一化(Instance Normalization,IN)

3.1 数学原理

实例归一化主要用于图像生成和风格迁移等任务,它是对每个样本的每个通道分别进行归一化。对于一个样本的第 c c c个通道的特征图 x c x_c xc, 其归一化步骤如下:

  1. 计算该通道的均值 μ c \mu_c μc:
    μ c = 1 H × W ∑ i = 1 H ∑ j = 1 W x c ( i , j ) \mu_c = \frac{1}{H \times W}\sum_{i = 1}^{H}\sum_{j = 1}^{W}x_c(i, j) μc=H×W1i=1Hj=1Wxc(i,j)

其中 H H H W W W 分别是特征图的高度和宽度。

  1. 计算该通道的方差 σ c 2 \sigma^2_c σc2:
    σ c 2 = 1 H × W ∑ i = 1 H ∑ j = 1 W ( x c ( i , j ) − μ c ) 2 \sigma^2_c = \frac{1}{H \times W}\sum_{i = 1}^{H}\sum_{j = 1}^{W}(x_c(i, j) - \mu_c)^2 σc2=H×W1i=1Hj=1W(xc(i,j)μc)2

  2. 对该通道的每个像素进行归一化:
    x ^ c ( i , j ) = x c ( i , j ) − μ c σ c 2 + ϵ \hat{x}_c(i, j) = \frac{x_c(i, j) - \mu_c}{\sqrt{\sigma^2_c + \epsilon}} x^c(i,j)=σc2+ϵ xc(i,j)μc

3.2 代码示例​

在 PyTorch 中,可以使用torch.nn.InstanceNorm2d来实现实例归一化:

import torch
import torch.nn as nn# 定义一个实例归一化层,输入通道数为3
in_layer = nn.InstanceNorm2d(3)# 模拟一个小批量的图像数据,形状为 (batch_size, channels, height, width)
x = torch.randn(16, 3, 32, 32)# 进行实例归一化
y = in_layer(x)
print(y.shape)
http://www.dtcms.com/wzjs/65132.html

相关文章:

  • 阜新网站建设网站推广系统
  • 英文网站模板优化大师百科
  • 江西响应式网站建设网址大全浏览器app
  • 如何做信用网站截图惠州网站排名提升
  • 搜索引擎优化行业seo推广培训
  • 方城网站设计当日alexa排名查询统计
  • 柳州网站制作公司武汉seo价格
  • 建设网站的4个根目录被删百度小说排行榜前十
  • 来宾北京网站建设广点通官网
  • 高端外贸网站建设服装成都网络营销公司排名
  • 购物网站设计理念seo入门黑帽培训教程
  • 企业管理系统oa南京seo关键词优化预订
  • 营销网站制作平台有哪些杭州关键词推广优化方案
  • web模板免费下载网站小说推广平台有哪些
  • 做网站如何寻找客源百度指数明星人气榜
  • 网站怎么做中英文切换关键词搜索爱站网
  • 网站 建设服务器漯河seo推广
  • 怎么看网站做的好不好百度网盘app下载安装官方免费版
  • 网络公司网站建设中国突然宣布大消息
  • 江西合创建设工程有限公司 网站外贸接单平台
  • 广东省著名商标在什么网站做今日刚刚发生新闻事件
  • 做网站找个人还是公司湖北疫情最新消息
  • 秦皇岛电子网站建设视频推广方案模板
  • python网站开发免费发布网站seo外链
  • 做哪些网站流量大网站优化什么意思
  • 网站设计报价单关键词吉他谱
  • 做网站图标的软件个人怎么做百度竞价
  • 做一个b2b网站网站设计公司建设网站
  • 做网上竞猜网站合法吗seo优化公司排名
  • 宁夏网站建设电话进入百度首页官网