当前位置: 首页 > news >正文

织梦 做网站 知乎手机网站制作教程下载

织梦 做网站 知乎,手机网站制作教程下载,网站备份文件,那个网站做毕业设计激活函数是神经网络中至关重要的组成部分,它们为网络引入了非线性特性,使得神经网络能够学习复杂模式。PyTorch 提供了多种常用的激活函数实现。 常用激活函数 1. ReLU (Rectified Linear Unit) 数学表达式: PyTorch实现: torch.nn.ReLU(inplaceFals…

激活函数是神经网络中至关重要的组成部分,它们为网络引入了非线性特性,使得神经网络能够学习复杂模式。PyTorch 提供了多种常用的激活函数实现。

常用激活函数

1. ReLU (Rectified Linear Unit)

数学表达式:

PyTorch实现:

torch.nn.ReLU(inplace=False)

特点:

  • 计算简单高效

  • 解决梯度消失问题(正区间)

  • 可能导致"神经元死亡"(负区间梯度为0),ReLU 在输入为负时输出恒为 0,导致反向传播中梯度消失,相关权重无法更新‌14。若神经元长期处于负输入状态,则会永久“死亡”,失去学习能力‌。

示例:

relu = nn.ReLU()
input = torch.tensor([-1.0, 0.0, 1.0, 2.0])
output = relu(input)  # tensor([0., 0., 1., 2.])

2. LeakyReLU

数学表达式:

PyTorch实现:

torch.nn.LeakyReLU(negative_slope=0.01, inplace=False)

特点:

  • 解决了ReLU的"神经元死亡"问题,通过引入负区间的微小斜率(如 torch.nn.LeakyReLU(negative_slope=0.01)),保留负输入的梯度传播,避免神经元死亡‌。

  • negative_slope通常设为0.01

示例

leaky_relu = nn.LeakyReLU(negative_slope=0.1)
input = torch.tensor([-1.0, 0.0, 1.0, 2.0])
output = leaky_relu(input)  # tensor([-0.1000, 0.0000, 1.0000, 2.0000])

3. Sigmoid

数学表达式:

 PyTorch实现:

torch.nn.Sigmoid()

特点:

  • 输出范围(0,1),适合二分类问题

  • 容易出现梯度消失问题

  • 输出不以0为中心

示例:

sigmoid = nn.Sigmoid()
input = torch.tensor([-1.0, 0.0, 1.0, 2.0])
output = sigmoid(input)  # tensor([0.2689, 0.5000, 0.7311, 0.8808])

 

4. Tanh (Hyperbolic Tangent)

数学表达式:

PyTorch实现

torch.nn.Tanh()

特点:

  • 输出范围(-1,1),以0为中心

  • 比sigmoid梯度更强

  • 仍存在梯度消失问题

示例:

tanh = nn.Tanh()
input = torch.tensor([-1.0, 0.0, 1.0, 2.0])
output = tanh(input)  # tensor([-0.7616, 0.0000, 0.7616, 0.9640])

5. Softmax

数学表达式:

PyTorch实现:

torch.nn.Softmax(dim=None)

特点:

  • 输出为概率分布(和为1)

  • 常用于多分类问题的输出层

  • dim参数指定计算维度

示例:

softmax = nn.Softmax(dim=1)
input = torch.tensor([[1.0, 2.0, 3.0]])
output = softmax(input)  # tensor([[0.0900, 0.2447, 0.6652]])

其他激活函数

6. ELU (Exponential Linear Unit)

torch.nn.ELU(alpha=1.0, inplace=False)

7. GELU (Gaussian Error Linear Unit) 

torch.nn.GELU()

8. Swish

class Swish(nn.Module):def forward(self, x):return x * torch.sigmoid(x)

选择指南

  1. 隐藏层:通常首选ReLU及其变体(LeakyReLU、ELU等)

  2. 二分类输出层:Sigmoid

  3. 多分类输出层:Softmax

  4. 需要负输出的情况:Tanh或LeakyReLU

  5. Transformer模型:常用GELU

自定义激活函数

PyTorch可以轻松实现自定义激活函数:

class CustomActivation(nn.Module):def __init__(self):super().__init__()def forward(self, x):return torch.where(x > 0, x, torch.exp(x) - 1)

注意事项

  1. 梯度消失/爆炸问题

  2. 死亡神经元问题(特别是ReLU)

  3. 计算效率考虑

  4. 初始化方法应与激活函数匹配

http://www.dtcms.com/a/485306.html

相关文章:

  • 淘特app官方网站下载工业设计公司有哪些
  • 北太平庄做网站公司通过一个站点的建设方案
  • 衡阳城乡建设部网站首页wordpress内页打不开
  • 申请注册网站域名.商城电商网站开发报价
  • 地方网站不让做吗策划公司收费
  • 网站导航排版布局网站建设内部下单流程图
  • 263企业邮箱修改密码国内最好的seo培训
  • 喀喇沁旗网站建设公司网站建设服务 杭州
  • 学习网站建设多少钱芬兰网站后缀
  • 广东 网站建设 公司排名网站域名费用
  • 许昌做网站的公司帮网站做代理
  • 青岛昌隆文具网站是哪家公司做的常见的网络营销方法有哪些?
  • 网站设计与建设报告网站界面优化
  • 电子购物网站建设视频国外优秀网页设计欣赏
  • 网站每天点击量多少好整站下载器 安卓版
  • 网站模板的好处网站开发建设合同书
  • 交互设计作品集网站东光县建设局网站
  • 网站开发常用jquery插件邯郸网站设计费用
  • 有哪些做电子商务的网站linux wordpress 权限设置
  • 滁州网站建设哪个好点抢购网站源码
  • 云速网站建设公司网站 宕机 优化
  • 看网站的访问量深圳市深企在线技术开发有限公司
  • 大气的个人网站一个网站怎么留住用户
  • 网站改版页面不收录空间设计说明怎么写
  • 寮步做网站公司建筑工程网络图计算方法
  • 设计一个企业网站报价自己做qq代刷网站要钱吗
  • vi设计公司联系方式seo计费怎么刷关键词的
  • 怎么做电影流量网站吗网上营销的好处
  • 高端网站建设 骆诗微信运营是干嘛的
  • 网站制作 网页显示不全网站建设关键要素