当前位置: 首页 > news >正文

深度学习05 ResNet残差网络

目录

传统卷积神经网络存在的问题

如何解决

批量归一化BatchNormalization, BN

残差连接方式

​残差结构


ResNet网络

ResNet 网络是在 2015年 由微软实验室中的何凯明等几位大神提出,斩获当年ImageNet竞赛中分类任务第一名,目标检测第一名。获得COCO数据集中目标检测第一名,图像分割第一名。

传统卷积神经网络存在的问题

神经网络都是通过卷积层和池化层的叠加组成的。 在实际的试验中发现,随着卷积层和池化层的叠加,学习效果不会逐渐变好,反而出现2个问题: 1、梯度消失和梯度爆炸 梯度消失:若每一层的误差梯度小于1,反向传播时,网络越深,梯度越趋近于0 梯度爆炸:若每一层的误差梯度大于1,反向传播时,网络越深,梯度越来越大 2、退化问题

如何解决
  1. 为了解决梯度消失或梯度爆炸问题

    通过数据的预处理以及在网络中使用 BN(Batch Normalization)层来解决。

  2. 为了解决深层网络中的退化问题

    人为地让神经网络某些层跳过下一层神经元的连接,隔层相连,弱化每层之间的强联系。

如图可以看到层数越多错误率越低

批量归一化BatchNormalization, BN

Batch Normalization目的:使所有的feature map满足均值为0,方差为1的分布规律

对每个传入的图片进行归一化后,将其传入卷积神经层进行处理后得到特征图,然后再对这个特征图进行归一化处理,处理完再次进入卷积层处理,输出的特征图再次进行归一化。

残差连接方式

residual结构使用了一种shortcut的连接方式,也可理解为捷径。让特征矩阵隔层相加,注意F(X)和X形状要相同,所谓相加是特征矩阵相同位置上的数字进行相加。

残差结构

ResNet一共有5种残差网络结构,18层、34层、50层、101层、152层

相关文章:

  • 备战蓝桥杯 Day4 差分
  • vite+vue3开发uni-app时低版本浏览器不支持es6语法的问题排坑笔记
  • 【论文笔记】Transformer^2: 自适应大型语言模型
  • 【Linux】【网络】Libevent基础
  • React入门 – 1. 学习React的预备知识
  • JVM内存模型详解
  • 数据结构-双向链表
  • 面试题之Vuex,sessionStorage,localStorage的区别
  • Qt常用控件之按钮QPushButton
  • 解决 `pip is configured with locations that require TLS/SSL` 错误
  • 使用DeepSeek+本地知识库,尝试从0到1搭建高度定制化工作流(数据分析篇)
  • RabbitMQ 3.12.2:单节点与集群部署实战指南
  • lab3 CSAPP:AttackLab
  • PosgreSQL比MySQL更优秀吗?
  • nlp|微调大语言模型初探索(2),训练自己的聊天机器人
  • 算法与数据结构(最小栈)
  • Python Cookbook-1.21 在Unicode和普通字符串之间转换
  • 【Python 语法】Python 正则表达式(regular expressions, regex)
  • 代码随想录 第一章 数组 977.有序数组的平方
  • 【拒绝算法PUA】LeetCode 1287. 有序数组中出现次数超过25%的元素
  • 海南保亭警方通报“两飞车党紧追女童”:两名初中生认错道歉
  • 新疆多地市民拍到不明飞行物:几秒内加速消失,气象部门回应
  • 北京韩美林艺术馆党支部书记郭莹病逝,终年40岁
  • 海昏侯博物馆展览上新,“西汉帝陵文化展”将持续展出3个月
  • 钕铁硼永磁材料龙头瞄准人形机器人,正海磁材:已向下游客户完成小批量供货
  • 上海黄浦江挡潮闸工程建设指挥部成立,组成人员名单公布