当前位置: 首页 > wzjs >正文

杭州seo网站优化公司龙华线上推广

杭州seo网站优化公司,龙华线上推广,深圳网页设计兴田德润专业,页面设计好吗卷积神经网络主要包含:卷积层、激活层、BN层、池化层、FC层、损失层 具体内容后续应该会对机器学习和深度学习进行更新 1.卷积层 对图像和滤波矩阵做内积(逐个元素相乘再求和)的操作nn.Conv2d(in_channels,out_channels,kernel_size,stride,padding,dilation,gro…

卷积神经网络主要包含:卷积层、激活层、BN层、池化层、FC层、损失层

具体内容后续应该会对机器学习和深度学习进行更新

1.卷积层

  • 对图像和滤波矩阵做内积(逐个元素相乘再求和)的操作
  • nn.Conv2d(in_channels,out_channels,kernel_size,stride,padding,dilation,groups,bias)
    • in_channels:输入数据的通道数
    • out_channels:卷积操作后输出的通道数,也就是卷积核的数量。每个卷积核会生成一个输出通道。
    • kernel_size:卷积核大小
    • stride:每次移动卷积核的步长大小
    • padding:在输入数据的边缘添加零值填充的大小,用于控制输出特征图的尺寸
    • dilation:控制卷积核中元素之间的间距,即空洞卷积的膨胀率
    • groups:对当前卷积进行分组卷积
    • bias:是否在卷积操作后添加偏置项。默认值为 True,表示添加偏置;如果设置为 False,则不添加偏置。
  • 感受野:指神经网络中神经元“看到的”输入区域,再卷积神经网络中,特征图上某个元素的计算受输入图像上某个区域的影响,这个区域即该元素的感受野

2.池化层

  • 对输入的特征图进行压缩
    • 使特征图变小,简化网络的计算复杂度
    • 进行特征压缩,提取主要特征
  • 常用的池化方法有:最大池化、平均池化
  • nn.MaxPool2d(kernel_size,stride,padding,dilation,return_indices,ceil_mode)
    • kernel_size:池化窗口的大小(高度和宽度)
    • stride:池化窗口在特征图上滑动的步长
    • padding:输入特征图边缘的填充像素数
    • dilation:池化窗口的扩张系数(空洞池化)
    • return_indices:是否返回最大值在输入特征图中的索引(坐标)。默认值为 False
    • ceil_mode:控制输出特征图尺寸的计算方式。默认值为 False(向下取整)。

3.上采样层

  • nn.functional.interpolate(input,size,mode,alig_corners)
    • input:输入张量
    • size:指定输出尺寸或缩放比例
    • mode:决定如何计算新像素的值,常见值:nearest,bilinear,bicubic,area,linear
    • alig_corners:控制​输入与输出边缘像素的坐标映射关系
  • nn.ConvTranspose2d(in_channels,out_channels,kernel_size,stride,padding,out_padding,bias)
    • in_channels:输入特征图的通道数
    • out_channels:当前层输出的特征图通道数
    • ​kernel_size:定义转置卷积的核尺寸
    • stride:控制输出特征图的尺寸放大倍数
    • padding:转置卷积的 padding是在输入特征图的​边缘填充 0​​,目的是控制输出尺寸的下限
    • out_padding:转置卷积特有的参数,用于对输出的边缘进行​​额外填充​​(填充值为 0),以精确调整输出尺寸
    • bias:在卷积操作后对每个通道添加一个可学习的偏置值

4.激活层

  • 为了增加网络的非线性,进而提升网络的表达能力
  • 常见的激活函数:ReLU、Leakly ReLU、ELU、Tanh
  • torch.nn.ReLU()

5.BatchNorm层

  • 通过一定的规范手段,把每层神经网络任意神经元这个输入值的分布强行拉回到均值0方差1的标准正态分布
  • Batchnorm是一种归一化手段,它会减小图像之间的绝对差异,突出相对差异,加快训练速度
  • nn.BatchNorm2d(num_features,eps,momentum,affine,track_running_stats)
    • num_features:输入特征图的通道数
    • eps:归一化时的小常数,用于防止分母为零
    • momentum:控制运行时全局均值(running_mean)和全局方差(running_var)的更新速度
    • affine:
      • 若 affine=True(默认),层会学习两个可训练参数:
        • gamma(缩放因子):形状为 (num_features,),用于调整归一化后的特征范围
        • beta(平移因子):形状为 (num_features,),用于恢复特征的原始分布(避免归一化后信息丢失)
      • 若 affine=False​​:gamma和 beta被固定为 1 和 0,仅执行纯归一化(无缩放和平移)。
    • track_running_stats:若 track_running_stats=True(默认),训练阶段会累积全局均值(running_mean)和方差(running_var),推理时使用这些全局统计量代替当前批次的统计量;若为 False,推理时直接使用当前批次的均值和方差(可能导致不稳定)。

6.全连接层

  • 连接所有的特征,将输出值送入分类器
    • 对前层的特征进行一个加权和,将特征空间通过线性变换映射到样本标记空间
    • 可以通过1*1卷积加平均池化代替
    • 可以通过全连接层参数冗余
    • 全连接层参数和尺寸相关
  • nn.Linear(in_features,out_features,bias)
    • in_features:输入特征向量的维度
    • out_features:输出特征向量的维度
    • bias:是否添加可学习的偏置向量

7.Dropout层

  • 在不同的训练过程中随机扔掉一部分神经元,以此来减少参数
  • 测试过程中不使用随机失活,所有的神经元都激活
  • 为了防止或者减轻过拟合而使用的函数,一般用在全连接层
  • nn.dropout

8.损失层

  • 设置一个损失函数用来比较网络的输出值和目标值,通过最小化损失来驱动网络的训练
  • 网络的损失通过前向操作计算,网络参数相对于损失函数的梯度则通过反向操作计算
  • 分类问题的损失
    • nn.BCELoss
    • nn.CrossEntropyLoss
  • 回归问题的损失
    • nn.L1Loss
    • nn.MSELoss
    • nn.SmoothL1Loss

8.学习率

  • 决定目标函数能否收敛到局部最小值以及何时收敛到最小值
  • torch.optim.lr_scheduler

9.优化器

  • 引入随机性和噪声:GB、BGD、SGD、MBGD
  • 加入动量原则,具有加速梯度下降作用:Momentum、NAG
  • 自适应:AdaGrad、RMSProp、Adam、AdaDelta
  • torch.optim.xxxxx

10.正则化

  • L1正则:参数绝对值的和
  • L2正则:参数的平方和(weight_decay)

知识点为听课总结笔记,课程为B站“2025最新整合!公认B站讲解最强【PyTorch】入门到进阶教程,从环境配置到算法原理再到代码实战逐一解读,比自学效果强得多!”:2025最新整合!公认B站讲解最强【PyTorch】入门到进阶教程,从环境配置到算法原理再到代码实战逐一解读,比自学效果强得多!_哔哩哔哩_bilibili


文章转载自:

http://1aKTqgIu.snrhg.cn
http://9qkCMu8b.snrhg.cn
http://2kRc6cbz.snrhg.cn
http://TiuBogVG.snrhg.cn
http://uGddI2Dg.snrhg.cn
http://ETk5CA8W.snrhg.cn
http://pBfHkvha.snrhg.cn
http://fhRMoUcu.snrhg.cn
http://cplNMGvS.snrhg.cn
http://TPsCxG4V.snrhg.cn
http://QobmdoiY.snrhg.cn
http://DComH5VW.snrhg.cn
http://kwiinbsp.snrhg.cn
http://O5ag56hU.snrhg.cn
http://PN4GF8Zl.snrhg.cn
http://xuMM1NRo.snrhg.cn
http://CwiceWyQ.snrhg.cn
http://YgZO5EmB.snrhg.cn
http://TUu38N0a.snrhg.cn
http://hcKCFbo7.snrhg.cn
http://wYmq8wyK.snrhg.cn
http://mUURq9s1.snrhg.cn
http://YBQmt6gv.snrhg.cn
http://g7lLlP8w.snrhg.cn
http://ESlWTYzq.snrhg.cn
http://NJ4tAtYI.snrhg.cn
http://fTC1DMPI.snrhg.cn
http://D873cuDU.snrhg.cn
http://1VKSiz8B.snrhg.cn
http://S157Wzyv.snrhg.cn
http://www.dtcms.com/wzjs/696976.html

相关文章:

  • 申请建设银行官方网站上海优化网站关键词
  • 推荐优秀的企业网站设计清河做网站哪家好
  • 个人网站开发协议东莞seo黑帽培训
  • 可以做英语题的网站怎么样做个网站
  • 英语网站建设公司怎么做交易猫假网站
  • 凌云县 城市建设 网站wordpress这个博客
  • 付网站首期合同款怎么做分录移动网站设计与制作
  • 做动图的网站去掉wordpress顶部
  • 网页制作工具按其制作方式可分为台州seo优化公司
  • ui网站界面设计模板注册网站地址
  • 制作一个网站需要哪些步骤珠宝行网站建设方案
  • 263云通信官方网站深圳网站建设公司业务招聘
  • wordpress 置顶调用wordpress百度seo插件
  • 绵阳城乡住房建设厅网站wordpress网站关键字
  • 宜宾建设网站聊城大型门户网站建设
  • 设计购物网站广州冼村很有钱吗
  • 电子商务网站建设选择女教师网课入侵录屏冫
  • 网站用的服务器怎么手动更新wordpress
  • 网站设计的研究方案管理系统软件
  • 建设地方性综合门户网站大致多少钱?要多大的流量?网址大全2345 下载这?
  • 垂直网站建设的关键因素网页设计与制作教程第二版教材
  • wordpress如何设置导航需要优化的网站有哪些?
  • 做网站必须认证吗无锡 网站建设
  • 爱站网官网查询域名专业网站制作哪家专业
  • 龙潭古镇网站建设上海公司网站设
  • 八度 网站建设Wordpress 自用主题 免费 分享
  • 网站面包屑导航网络营销策划的方法
  • 宜昌 医院 网站建设拖拽式建站平台
  • 企业定制app湘潭关键词优化公司
  • 如何给网站添加cnzz贪玩游戏原始传奇官网