当前位置: 首页 > wzjs >正文

移动端适配北京网站优化方式

移动端适配,北京网站优化方式,百度小程序登录,杭州电子商务公司排行本文详解深度学习中常见的归一化方法。 【归一化是将数据按比例缩放,使之落入一个特定的区间】目录 1. 批量归一化(Batch Normalization,BN)1.1 数学原理1.2 代码示例 2. 层归一化(Layer Normalization,LN&…
本文详解深度学习中常见的归一化方法。
【归一化是将数据按比例缩放,使之落入一个特定的区间】

目录

  • 1. 批量归一化(Batch Normalization,BN)
    • 1.1 数学原理
    • 1.2 代码示例
  • 2. 层归一化(Layer Normalization,LN)
    • 2.2 代码示例
  • 3. 实例归一化(Instance Normalization,IN)
    • 3.1 数学原理
    • 3.2 代码示例​

1. 批量归一化(Batch Normalization,BN)

1.1 数学原理

对于一个包含 m m m个样本的小批量数据 x = { x ( 1 ) , x ( 2 ) , ⋯ , x ( m ) } x = \{x^{(1)}, x^{(2)}, \cdots, x^{(m)}\} x={x(1),x(2),,x(m)}, 在第 k k k个特征维度上,批量归一化的步骤如下:

  1. 计算该维度上的均值 μ k \mu_k μk:
    μ k = 1 m ∑ i = 1 m x k ( i ) \mu_k = \frac{1}{m}\sum_{i = 1}^{m}x^{(i)}_k μk=m1i=1mxk(i)

  2. 计算该维度上的方差 σ k 2 \sigma^2_k σk2:
    σ k 2 = 1 m ∑ i = 1 m ( x k ( i ) − μ k ) 2 \sigma^2_k = \frac{1}{m}\sum_{i = 1}^{m}(x^{(i)}_k - \mu_k)^2 σk2=m1i=1m(xk(i)μk)2

  3. 对该维度上的每个样本进行归一化:
    x ^ k ( i ) = x k ( i ) − μ k σ k 2 + ϵ \hat{x}^{(i)}_k = \frac{x^{(i)}_k - \mu_k}{\sqrt{\sigma^2_k + \epsilon}} x^k(i)=σk2+ϵ xk(i)μk
    其中 ϵ 是一个很小的常数,用于防止分母为零

1.2 代码示例

在 PyTorch 中,可以使用torch.nn.BatchNorm2d来实现批量归一化:

import torch
import torch.nn as nn# 定义一个批量归一化层,输入通道数为3
bn = nn.BatchNorm2d(3)# 模拟一个小批量的图像数据,形状为 (batch_size, channels, height, width)
x = torch.randn(16, 3, 32, 32)# 进行批量归一化
y = bn(x)
print(y.shape)

2. 层归一化(Layer Normalization,LN)

层归一化是对单个样本的所有特征维度进行归一化。对于一个样本 x = [ x 1 , x 2 , ⋯ , x n ] x = [x_1, x_2, \cdots, x_n] x=[x1,x2,,xn], 其归一化步骤如下:

  1. 计算该样本的均值 μ \mu μ:
    μ = 1 n ∑ i = 1 n x i \mu = \frac{1}{n}\sum_{i = 1}^{n}x_i μ=n1i=1nxi

  2. 计算该样本的方差 σ 2 \sigma^2 σ2:
    σ 2 = 1 n ∑ i = 1 n ( x i − μ ) 2 \sigma^2 = \frac{1}{n}\sum_{i = 1}^{n}(x_i - \mu)^2 σ2=n1i=1n(xiμ)2

  3. 对该样本的每个特征进行归一化:
    x ^ i = x i − μ σ 2 + ϵ \hat{x}_i = \frac{x_i - \mu}{\sqrt{\sigma^2 + \epsilon}} x^i=σ2+ϵ xiμ

2.2 代码示例

在 PyTorch 中,可以使用torch.nn.LayerNorm来实现层归一化:

import torch
import torch.nn as nn# 定义一个层归一化层,归一化的维度为32
ln = nn.LayerNorm(32)# 模拟一个样本数据,形状为 (batch_size, sequence_length, features)
x = torch.randn(16, 10, 32)# 进行层归一化
y = ln(x)
print(y.shape)

3. 实例归一化(Instance Normalization,IN)

3.1 数学原理

实例归一化主要用于图像生成和风格迁移等任务,它是对每个样本的每个通道分别进行归一化。对于一个样本的第 c c c个通道的特征图 x c x_c xc, 其归一化步骤如下:

  1. 计算该通道的均值 μ c \mu_c μc:
    μ c = 1 H × W ∑ i = 1 H ∑ j = 1 W x c ( i , j ) \mu_c = \frac{1}{H \times W}\sum_{i = 1}^{H}\sum_{j = 1}^{W}x_c(i, j) μc=H×W1i=1Hj=1Wxc(i,j)

其中 H H H W W W 分别是特征图的高度和宽度。

  1. 计算该通道的方差 σ c 2 \sigma^2_c σc2:
    σ c 2 = 1 H × W ∑ i = 1 H ∑ j = 1 W ( x c ( i , j ) − μ c ) 2 \sigma^2_c = \frac{1}{H \times W}\sum_{i = 1}^{H}\sum_{j = 1}^{W}(x_c(i, j) - \mu_c)^2 σc2=H×W1i=1Hj=1W(xc(i,j)μc)2

  2. 对该通道的每个像素进行归一化:
    x ^ c ( i , j ) = x c ( i , j ) − μ c σ c 2 + ϵ \hat{x}_c(i, j) = \frac{x_c(i, j) - \mu_c}{\sqrt{\sigma^2_c + \epsilon}} x^c(i,j)=σc2+ϵ xc(i,j)μc

3.2 代码示例​

在 PyTorch 中,可以使用torch.nn.InstanceNorm2d来实现实例归一化:

import torch
import torch.nn as nn# 定义一个实例归一化层,输入通道数为3
in_layer = nn.InstanceNorm2d(3)# 模拟一个小批量的图像数据,形状为 (batch_size, channels, height, width)
x = torch.randn(16, 3, 32, 32)# 进行实例归一化
y = in_layer(x)
print(y.shape)
http://www.dtcms.com/wzjs/337510.html

相关文章:

  • 可信赖的广州做网站怎样建立自己的网站平台
  • 个人物流网站建设方案seo优化报价公司
  • 如何做网站建设方案百度知道推广软件
  • wordpress网站插件下载失败网站权重查询工具
  • 缙云政府网站建设方案免费引流微信推广
  • html5手机网站开发环境宣传推广的形式有哪些
  • 如何用手机创造游戏软件seo单词优化
  • 目前国内做情趣最好的网站市场营销案例100例
  • 深圳农产品网站制作企业营销策划书
  • 做网站服务器哪种好百度广告点击软件源码
  • 什么软件能自己做网站nba最新交易
  • wordpress的seo插件烟台seo关键词排名
  • 网站预订模板怎么做成都seo的方法
  • 北京市招标网seo怎么做
  • 上海品划网站建设有限公司seo关键词排名优化制作
  • 去哪里做网站软文广告
  • 十大最佳摄影网站十大跨界营销案例
  • 传媒公司网站设计站长素材音效下载
  • 专业网站开发哪家好seogw
  • 王爷站住重生嫡女要强嫁广东公共广告20120708
  • 永兴做网站东台网络推广
  • 美丽乡村网站建设模板营销推广是干什么的
  • 网站优化培训中心营销网站建设哪家好
  • 昆山市住房和城乡建设局网站深圳搜索引擎
  • 怎样建立自己的网站赚钱黑帽seo技术有哪些
  • 北京活动策划公司黄页新网站百度seo如何做
  • 颜色搭配对网站重要性seo关键词工具
  • dw做网站学习解析百度官方官网
  • 手机上的软件网站建设各大免费推广网站
  • 360免费建手机网站西安新站网站推广优化