当前位置: 首页 > wzjs >正文

昆明软讯科技网站建设网站建设公司简介

昆明软讯科技网站建设,网站建设公司简介,彩票网站给实体店做代销,莘县网站制作深度学习:激活函数曲线总结 在深度学习中有很多时候需要利用激活函数进行非线性处理,在搭建网路的时候也是非常重要的,为了更好的理解不同的激活函数的区别和差异,在这里做一个简单的总结,在pytorch中常用的激活函数的…

深度学习:激活函数曲线总结

在深度学习中有很多时候需要利用激活函数进行非线性处理,在搭建网路的时候也是非常重要的,为了更好的理解不同的激活函数的区别和差异,在这里做一个简单的总结,在pytorch中常用的激活函数的数学表达形式,同时为了更直观的感受,给出不同激活函数的曲线形式,方便查询。

import torch
import torch.nn as nn
x = torch.linspace(-4, 4, 400) # 在-4和4之间画400个点。

1. nn.leakyReLU()

给负值一个斜率,不全为零。

  • 数学公式:
    LeakyReLU ( x ) = { x , if  x ≥ 0 negative_slope × x , otherwise  \text{LeakyReLU}(x) = \begin{cases} x, & \text{ if } x \geq 0 \\ \text{negative\_slope} \times x, & \text{ otherwise } \end{cases} LeakyReLU(x)={x,negative_slope×x, if x0 otherwise 
leakyrelu = nn.LeakyReLU(negative_slope=0.01)

negative_slope 是一个小于1的值,通常设置为0.01,用于控制在输入小于0时的输出斜率。这意味着在nn.LeakyReLU中,负数输入会乘以negative_slope,而正数输入保持不变。

  • 对应曲线:

leakyrelu

2. nn.Relu()

ReLU是一个常用的激活函数,它将负数值设为0,保持正数值不变。

  • 数学公式:
    ReLU ( x ) = ( x ) + = max ⁡ ( 0 , x ) \text{ReLU}(x) = (x)^+ = \max(0, x) ReLU(x)=(x)+=max(0,x)
relu = nn.ReLU()
  • 函数曲线:
    Relu

3. nn.Tanh()

Tanh函数将输入映射到-1和1之间

  • 数学公式
    Tanh ( x ) = tanh ⁡ ( x ) = exp ⁡ ( x ) − exp ⁡ ( − x ) exp ⁡ ( x ) + exp ⁡ ( − x ) \text{Tanh}(x) = \tanh(x) = \frac{\exp(x) - \exp(-x)} {\exp(x) + \exp(-x)} Tanh(x)=tanh(x)=exp(x)+exp(x)exp(x)exp(x)
Tanh = nn.Tanh()
  • 函数曲线
    Tanh

4. nn.PReLU()

PReLU是具有可学习参数的激活函数,用于克服ReLU的一些问题

  • 数学公式
    RReLU ( x ) = { x if  x ≥ 0 a x otherwise  \text{RReLU}(x) = \begin{cases} x & \text{if } x \geq 0 \\ ax & \text{ otherwise } \end{cases} RReLU(x)={xaxif x0 otherwise 
PReLU = nn.PReLU(num_parameters=1)
  • 函数曲线

PRelu

5. nn.ELU()

所有点上都是连续的和可微的,训练快

  • 数学公式:
    ELU ( x ) = { x , if  x > 0 α ∗ ( exp ⁡ ( x ) − 1 ) , if  x ≤ 0 \text{ELU}(x) = \begin{cases} x, & \text{ if } x > 0\\ \alpha * (\exp(x) - 1), & \text{ if } x \leq 0 \end{cases} ELU(x)={x,α(exp(x)1), if x>0 if x0
ELU = nn.ELU()
  • 函数曲线
    ELU

6. nn.SELU()

  • 数学公式:
    SELU ( x ) = scale ∗ ( max ⁡ ( 0 , x ) + min ⁡ ( 0 , α ∗ ( exp ⁡ ( x ) − 1 ) ) ) \text{SELU}(x) = \text{scale} * (\max(0,x) + \min(0, \alpha * (\exp(x) - 1))) SELU(x)=scale(max(0,x)+min(0,α(exp(x)1)))
SELU = nn.SELU()
  • 函数曲线:
    SELU

7. nn.GELU()

  • 数学公式:
    GELU ( x ) = x ∗ Φ ( x ) \text{GELU}(x) = x * \Phi(x) GELU(x)=xΦ(x)
GELU = nn.GELU()
  • 函数曲线:
    GELU

8. nn.Mish()

  • 数学公式:
    Mish ( x ) = x ∗ Tanh ( Softplus ( x ) ) \text{Mish}(x) = x * \text{Tanh}(\text{Softplus}(x)) Mish(x)=xTanh(Softplus(x))
Mish = nn.Mish()
  • 函数曲线:
    Mish

9 . nn.Softmax()

  • 数学公式:
    Softmax ( x i ) = exp ⁡ ( x i ) ∑ j exp ⁡ ( x j ) \text{Softmax}(x_{i}) = \frac{\exp(x_i)}{\sum_j \exp(x_j)} Softmax(xi)=jexp(xj)exp(xi)
Softmax = nn.Softmax()
y = Softmax(x)
  • 函数曲线:
    softmax

总结

感觉还是看曲线的形状,把大体的形状记住更直观些。

http://www.dtcms.com/wzjs/472746.html

相关文章:

  • 网站推广渠道咨询百度知道登录入口
  • 昭通做网站百度竞价包年推广公司
  • 阿里云重新备案注销主体还是注销网站网站策划是什么
  • 企业融资概念四川网站seo
  • Wordpress avada 主题厦门seo外包公司
  • 医院网络营销推广方案怎么做关键词优化排名
  • 怎么建设局域网站中国十大电商公司排名
  • 青岛做网站公司有哪些seo站长
  • 如何做公众号微信网站优化排名哪家性价比高
  • 做网站日志步骤武汉seo搜索引擎优化
  • 简述电子商务网站的内容设计与开发怎么在百度发布免费广告
  • 网站后台管理优化百度信息流推广技巧
  • 网站开发有哪些风险搜索引擎优化方法有哪几种
  • 国内网站做国外服务器高级搜索百度
  • 深圳专业网站建设网站制作8年专注青岛seo服务哪家好
  • 哪个网站做不锈钢好如何建网站
  • 做国际黄金看什么网站seo网站推广多少钱
  • 点子网创意网百度首页排名优化哪家专业
  • 沧州海外网站建设正规排名网站推广公司
  • 公司平台网站建设济南百度推广公司电话
  • 广州网站建设建航收录排名好的发帖网站
  • 可以接外包的网站什么是网站外链
  • 一级a做爰片免费网站孕交视频教程优化大师win10下载
  • 扬州学做网站培训多少钱深圳广告策划公司
  • 搭建网页游戏教程seo挂机赚钱
  • 高新区网站建设公司百度竞价sem
  • 卖东西的网站有哪些站长工具端口查询
  • 网站怎么做能快速有排名武汉软件测试培训机构排名
  • 衡水网站建设一多软件百度贴吧人工客服
  • 制作公司网站用阿里云广告推广