当前位置: 首页 > news >正文

杭州建设网公益广告宣传南昌seo专业团队

杭州建设网公益广告宣传,南昌seo专业团队,自己如何开自己的商城,广西省住房和城乡建设厅官网激活函数(Activation Function)详解 理解 首先煮波解释一下这四个字,“函数”相信大家都不陌生,能点进来看这篇文章说明你一定经历至少长达十年的数学的摧残,关于这个概念煮波就不巴巴了,煮波主要说一下“…

激活函数(Activation Function)详解

理解

首先煮波解释一下这四个字,“函数”相信大家都不陌生,能点进来看这篇文章说明你一定经历至少长达十年的数学的摧残,关于这个概念煮波就不巴巴了,煮波主要说一下“激活”,大家可能或多或少的看过类似于古装,玄幻,修仙等类型的小说或者电视剧。剧中的主角往往是天赋异禀或则什么神啊仙啊的转世,但是这一世他却被当成了普通人,指导某一时刻才会迸发出全部的能量(主角:你触碰到了我的逆鳞!!!!龙有逆鳞,触之必死,哈哈哈哈哈哈,太中二了)。ok,其实这里的激活差不多的意思,本身我们的网络(爽文主角)很强,可以学习到很多的细节(主角是什么天生异瞳,身具异火啥的),但是确没法很好的get复杂的模式(主角被界面压制了自身的实力),这就需要一个激活其本身的潜力(打通任督二脉,开龙脊),然后我们的网络就很开门啦!(主角:这一世我要拿回属于我的全部!!!!!!)

1. 激活函数的作用

在神经网络中,激活函数的主要作用是:

  1. 引入非线性:若无激活函数,神经网络的多个层可以视作线性变换的叠加,本质上等效于单层线性变换,无法学习复杂的模式。
  2. 控制梯度流动:合适的激活函数可以缓解梯度消失或梯度爆炸问题。
  3. 影响网络的收敛速度:不同激活函数的计算复杂度不同,会影响训练速度和收敛效果。
  4. 增强表达能力:某些激活函数可以提供特定的特性,例如稀疏性、平移不变性等。

2. 常见激活函数解析

2.1. Sigmoid(S形激活函数)

数学表达式

f ( x ) = 1 1 + e − x f(x) = \frac{1}{1+e^{-x}} f(x)=1+ex1

导数

f ′ ( x ) = f ( x ) ( 1 − f ( x ) ) f'(x) = f(x)(1 - f(x)) f(x)=f(x)(1f(x))

特点
  • 值域 ( 0 , 1 ) (0,1) (0,1)
  • 单调递增,具有平滑性非线性
  • 当输入较大或较小时,梯度接近 0,易导致梯度消失问题
  • 对称性:以 0.5 0.5 0.5 为中心,但非零均值
  • 计算复杂度较高(涉及指数运算)
应用场景
  • 适用于二分类问题的输出层(如逻辑回归)
  • 早期神经网络(如 MLP)广泛使用,但因梯度消失问题,在深度网络中较少使用

2.2. Tanh(双曲正切函数)

数学表达式

f ( x ) = tanh ⁡ ( x ) = e x − e − x e x + e − x f(x) = \tanh(x) = \frac{e^x - e^{-x}}{e^x + e^{-x}} f(x)=tanh(x)=ex+exexex

导数

f ′ ( x ) = 1 − f ( x ) 2 f'(x) = 1 - f(x)^2 f(x)=1f(x)2

特点
  • 值域 ( − 1 , 1 ) (-1,1) (1,1)
  • 单调递增,具有平滑性非线性
  • 相较于 Sigmoid,其均值为 0,有助于梯度更快传播
  • 梯度仍可能在较大或较小输入值时趋于 0(梯度消失问题)
  • 计算复杂度高(涉及指数运算)
应用场景
  • 常用于循环神经网络(RNN),尤其是在 LSTM 结构中
  • 在某些情况下比 Sigmoid 更合适,尤其是隐藏层

2.3. ReLU(修正线性单元)

数学表达式

f ( x ) = max ⁡ ( 0 , x ) f(x) = \max(0, x) f(x)=max(0,x)

导数

f ′ ( x ) = { 1 , x > 0 0 , x ≤ 0 f'(x) = \begin{cases} 1, & x > 0 \\ 0, & x \leq 0 \end{cases} f(x)={1,0,x>0x0

特点
  • 值域 [ 0 , + ∞ ) [0, +\infty) [0,+)
  • 计算简单,梯度传播效果较好
  • 避免了 Sigmoid 和 Tanh 的梯度消失问题
  • 可能导致"神经元死亡"(Dead Neurons),即当输入小于 0 时,梯度始终为 0,导致该神经元永远无法被激活
应用场景
  • 目前最常用于深度神经网络(DNN)的隐藏层
  • CNN(卷积神经网络)广泛使用 ReLU

2.4. Leaky ReLU(带泄漏的 ReLU)

数学表达式

f ( x ) = { x , x > 0 α x , x ≤ 0 f(x) = \begin{cases} x, & x > 0 \\ \alpha x, & x \leq 0 \end{cases} f(x)={x,αx,x>0x0

其中, α \alpha α 是一个较小的正数(如 0.01)。

导数

f ′ ( x ) = { 1 , x > 0 α , x ≤ 0 f'(x) = \begin{cases} 1, & x > 0 \\ \alpha, & x \leq 0 \end{cases} f(x)={1,α,x>0x0

特点
  • 解决 ReLU 的“神经元死亡”问题,使得当 x < 0 x < 0 x<0 时,梯度仍然可传播
  • 仍然保持 ReLU 的计算效率
  • α \alpha α 需要人为设定,可能需要调参
应用场景
  • 深度神经网络(DNN),特别是在防止神经元死亡问题时使用
  • 适用于 CNN 和 DNN 的隐藏层

3. 结论

激活函数计算复杂度梯度消失负值处理适用场景
Sigmoid二分类输出
TanhRNN 隐藏层
ReLUCNN, DNN 隐藏层
Leaky ReLU防止神经元死亡
ELU中等CNN, DNN
Swish高端模型(如 EfficientNet)

不同场景需选择合适的激活函数,以提升模型性能和收敛速度。

http://www.dtcms.com/a/468999.html

相关文章:

  • wordpress英文变中文版福清seo
  • 做彩票网站犯法外贸网站使用什么品牌国外主机
  • 株洲新站建设主流电商网站开发框架
  • 宜昌建设厅网站如何留住网站用户
  • 景安 怎么把网站做别名wordpress 鼠标悬停图片 焦点
  • 网页设计规范字号选择相对正确的是外贸seo营销ppt
  • 企业大型网站开发设计建站流程西宁百度推广公司电话
  • 公司做卖网站有前景吗微信小程序官网文档
  • 站群dede学校网站免费源码
  • 潍坊网站建设首荐创美网络WordPress禁用邮件注册
  • 请简述网站建设的一般流程团购网站销售技巧
  • 网站备案主体是教育网站网址
  • 网站备案电话号码免费招聘网站有哪些
  • 扬州高邮网站建设潼南区做网站的公司
  • 东营的招聘网站哪个有用wordpress更改站点ip
  • 网站建设佰首选金手指六汕头招聘网官网
  • 网站建设中请稍后再访问中山小程序开发公司
  • 做自媒体需要关注什么网站重庆那些网站
  • 网站优化seo推广服务网页制作教程代码
  • 做网站的职责品牌营销型网站建设公司
  • 黄冈网站推广在线asp与sql做网站
  • 网站备案免费吗网站开发工具可视化
  • html个人网站完整代码建设银行官网站查询
  • 什么是企业网站营销seo怎么发外链的
  • joomla功能型网站建设不做百度了 百度做的网站
  • 公司设计网站有哪些深圳农产品网站制作
  • 手怎么搭建网站网站建设中哪些最重要性
  • 六安哪里有做推广网站虚拟机做的网站怎么让外网访问不了
  • wordpress插件的安装目录网站优化公司价格如何计算
  • 购物网站名称网站结构有哪几种