当前位置: 首页 > wzjs >正文

网站怎么做百科网站建设与管理实训心得怎么写

网站怎么做百科,网站建设与管理实训心得怎么写,做门户网站的营业范围,聚名网官网入口激活函数是神经网络中至关重要的组成部分,它们为网络引入了非线性特性,使得神经网络能够学习复杂模式。PyTorch 提供了多种常用的激活函数实现。 常用激活函数 1. ReLU (Rectified Linear Unit) 数学表达式: PyTorch实现: torch.nn.ReLU(inplaceFals…

激活函数是神经网络中至关重要的组成部分,它们为网络引入了非线性特性,使得神经网络能够学习复杂模式。PyTorch 提供了多种常用的激活函数实现。

常用激活函数

1. ReLU (Rectified Linear Unit)

数学表达式:

PyTorch实现:

torch.nn.ReLU(inplace=False)

特点:

  • 计算简单高效

  • 解决梯度消失问题(正区间)

  • 可能导致"神经元死亡"(负区间梯度为0),ReLU 在输入为负时输出恒为 0,导致反向传播中梯度消失,相关权重无法更新‌14。若神经元长期处于负输入状态,则会永久“死亡”,失去学习能力‌。

示例:

relu = nn.ReLU()
input = torch.tensor([-1.0, 0.0, 1.0, 2.0])
output = relu(input)  # tensor([0., 0., 1., 2.])

2. LeakyReLU

数学表达式:

PyTorch实现:

torch.nn.LeakyReLU(negative_slope=0.01, inplace=False)

特点:

  • 解决了ReLU的"神经元死亡"问题,通过引入负区间的微小斜率(如 torch.nn.LeakyReLU(negative_slope=0.01)),保留负输入的梯度传播,避免神经元死亡‌。

  • negative_slope通常设为0.01

示例

leaky_relu = nn.LeakyReLU(negative_slope=0.1)
input = torch.tensor([-1.0, 0.0, 1.0, 2.0])
output = leaky_relu(input)  # tensor([-0.1000, 0.0000, 1.0000, 2.0000])

3. Sigmoid

数学表达式:

 PyTorch实现:

torch.nn.Sigmoid()

特点:

  • 输出范围(0,1),适合二分类问题

  • 容易出现梯度消失问题

  • 输出不以0为中心

示例:

sigmoid = nn.Sigmoid()
input = torch.tensor([-1.0, 0.0, 1.0, 2.0])
output = sigmoid(input)  # tensor([0.2689, 0.5000, 0.7311, 0.8808])

 

4. Tanh (Hyperbolic Tangent)

数学表达式:

PyTorch实现

torch.nn.Tanh()

特点:

  • 输出范围(-1,1),以0为中心

  • 比sigmoid梯度更强

  • 仍存在梯度消失问题

示例:

tanh = nn.Tanh()
input = torch.tensor([-1.0, 0.0, 1.0, 2.0])
output = tanh(input)  # tensor([-0.7616, 0.0000, 0.7616, 0.9640])

5. Softmax

数学表达式:

PyTorch实现:

torch.nn.Softmax(dim=None)

特点:

  • 输出为概率分布(和为1)

  • 常用于多分类问题的输出层

  • dim参数指定计算维度

示例:

softmax = nn.Softmax(dim=1)
input = torch.tensor([[1.0, 2.0, 3.0]])
output = softmax(input)  # tensor([[0.0900, 0.2447, 0.6652]])

其他激活函数

6. ELU (Exponential Linear Unit)

torch.nn.ELU(alpha=1.0, inplace=False)

7. GELU (Gaussian Error Linear Unit) 

torch.nn.GELU()

8. Swish

class Swish(nn.Module):def forward(self, x):return x * torch.sigmoid(x)

选择指南

  1. 隐藏层:通常首选ReLU及其变体(LeakyReLU、ELU等)

  2. 二分类输出层:Sigmoid

  3. 多分类输出层:Softmax

  4. 需要负输出的情况:Tanh或LeakyReLU

  5. Transformer模型:常用GELU

自定义激活函数

PyTorch可以轻松实现自定义激活函数:

class CustomActivation(nn.Module):def __init__(self):super().__init__()def forward(self, x):return torch.where(x > 0, x, torch.exp(x) - 1)

注意事项

  1. 梯度消失/爆炸问题

  2. 死亡神经元问题(特别是ReLU)

  3. 计算效率考虑

  4. 初始化方法应与激活函数匹配


文章转载自:

http://HV8fipWz.nrchx.cn
http://IwMEcqH9.nrchx.cn
http://ApVGsjlJ.nrchx.cn
http://WFD2qOub.nrchx.cn
http://70PzGWcj.nrchx.cn
http://fgbDZR0v.nrchx.cn
http://zoao24U9.nrchx.cn
http://eSwMHnAq.nrchx.cn
http://mBI6SzKl.nrchx.cn
http://EYP5fOIL.nrchx.cn
http://JzB7p3Lo.nrchx.cn
http://qxHGcZWX.nrchx.cn
http://6ewtLzbK.nrchx.cn
http://l2sLAYct.nrchx.cn
http://i6stTYk0.nrchx.cn
http://7u7RDbCi.nrchx.cn
http://GcwRuPON.nrchx.cn
http://eovzoMSH.nrchx.cn
http://XSvJP1ps.nrchx.cn
http://4yCH6t54.nrchx.cn
http://wLqMz8Ln.nrchx.cn
http://HPWTB7rn.nrchx.cn
http://ouZZSzm5.nrchx.cn
http://IccTlvNy.nrchx.cn
http://3wQcpGmR.nrchx.cn
http://K5bAm062.nrchx.cn
http://PP8otOYC.nrchx.cn
http://zdxDJIQD.nrchx.cn
http://dpXizjm5.nrchx.cn
http://kPag031G.nrchx.cn
http://www.dtcms.com/wzjs/666100.html

相关文章:

  • 长沙网站 建设推广世云网络博客建站系统
  • 做logo好的网站文交所网站开发
  • 郑州怎么做网站排名婚恋网注册
  • 门户网站那个程序比较在线培训方案设计
  • 联通公网ip申请 做网站海尔网站建设信息
  • 公司企业做网站违法吗wordpress怎么添加搜索框
  • 西部建设网站wordpress自动翻译插件怎么用
  • 怎么搭建网站环境配置文件怎样快速仿做网站
  • 做用户运营应该关注哪些网站长春经济技术开发区人才网
  • 网站服务器搬家html做静态网站
  • wordpress图片上传插件seo搜索引擎优化推广
  • 什么网站做一件代发天津差旅管家商旅服务有限公司
  • 自由贸易区的建设网站怎么推广我的网站
  • 手机网站电话漂浮代码红河做网站
  • 公司企业网站制作《30天网站建设实录》
  • 有哪些可以做兼职的网站手机商城怎么做
  • 容县网站建设中小学智慧校园建设平台网站
  • 怎么在网站后台挂马烟台做网站建设电话
  • 网站优化公司上海网站制作需要多少钱官网
  • 企业做网站需要的资料什么云的网站开发平台
  • 手机网站平台电子商务网站建设 价格
  • 福建建设厅网站工程履约保险工作证明范本
  • 沧州市有建网站的吗网页设计用的软件
  • 成都广告牌制作厂家搜索引擎排名优化程序
  • 网站鼠标移上去显示层国外网站都不能上怎么做跨境电商
  • 河南网站建设推荐网站的用户体验
  • 河南锦源建设有限公司网站eclipse做购物网站
  • 专业建站威海高区有没有建设局的网站
  • windows系统做ppt下载网站网站代码的重点内容是什么
  • 做设计接私活的网站做网站建设销售工资高吗