当前位置: 首页 > news >正文

常见深度学习算法图解笔记

深度学习整体架构

与传统的机器学习方法不同,深度学习模型能够自动从原始数据中提取特征,减少了手动特征工程的需求。 深度学习模型通常包含多个隐藏层,这些层可以学习数据的高层抽象和复杂特征。

一、卷积神经网络

 

经过权重参数计算之后,进行一次非线性变换,通过在每一层中使用激活函数,可以增加网络的深度和复杂性,使网络能够学习更复杂的特征。 

 整体架构

 二、残差网络ResNet

何凯明等人在2015年提出的ResNet,在ImageNet比赛classification任务上获得第一名,获评CVPR2016最佳论文。因为它“简单与实用”并存,之后许多目标检测、图像分类任务都是建立在ResNet的基础上完成的,成为计算机视觉领域重要的基石结构。

自从深度神经网络在ImageNet大放异彩之后,后来问世的深度神经网络就朝着网络层数越来越深的方向发展。直觉上我们不难得出结论:增加网络深度后,网络可以进行更加复杂的特征提取,因此更深的模型可以取得更好的结果。 但事实并非如此,人们发现随着网络深度的增加,模型精度并不总是提升,并且这个问题显然不是由过拟合(overfitting)造成的,因为网络加深后不仅测试误差变高了,它的训练误差竟然也变高了。作者提出,这可能是因为更深的网络会伴随梯度消失/爆炸问题,从而阻碍网络的收敛。作者将这种加深网络深度但网络性能却下降的现象称为退化问题(degradation problem)

当传统神经网络的层数从20增加为56时,网络的训练误差和测试误差均出现了明显的增长,也就是说,网络的性能随着深度的增加出现了明显的退化。ResNet就是为了解决这种退化问题而诞生的。 

 构建恒等映射(Identity mapping)来解决这个问题。增加网络层数,但训练误差不增加。20层的网络是56层网络的一个子集,56层网络的解空间包含着20层网络的解空间。如果我们将56层网络的最后36层全部短接,这些层进来是什么出来也是什么(也就是做一个恒等映射),那这个56层网络不就等效于20层网络了吗,至少效果不会相比原先的20层网络差吧。同样是56层网络,不引入恒等映射为什么就不行呢?因为梯度消失现象使得网络难以训练,虽然网络的深度加深了,但是实际上无法有效训练网络,训练不充分的网络不但无法提升性能,甚至降低了性能。

 

三、. U-Net

相关文章:

  • 松原网站开发对网站的建议和优化
  • 网站建设程序开发自己在家做电商
  • 东莞哪些网络公司做网站比较好店铺推广方案怎么写
  • 渝北网站建设seo快速入门教程
  • 青岛做网站的公司信息流优化师怎么入行
  • 手机网站app开发百度站长平台提交网站
  • 【MySQL】窗口函数详解(概念+练习+实战)
  • 避免 Git 文件名大小写出错
  • 哈工大 计算机组成原理 第三章计算机总线 笔记
  • 磁盘阵列新秀GSx并行文件存储是HPC高性能计算/AI 大模型-1替3好省预算
  • next.js-学习5
  • JSON(JavaScript Object Notation)
  • 图形学曲线c++简单实现
  • Vllm进行Qwen2-vl部署(包含单卡多卡部署及爬虫请求)
  • mysqldump 参数详解
  • Linux | 程序 / 进程调用库依赖关系查看
  • 上位机知识篇---HTTPHTTPS等各种通信协议
  • 网络空间安全(4)web应用程序安全要点
  • STL 算法库中的 min_element 和 max_element
  • 什么是HTTP协议
  • multer 依赖详解
  • USBCANFD接口卡介绍
  • MATLAB应用介绍
  • 前后端分离项目部署到云服务器、宝塔(前端vue、后端springboot)详细教程
  • 深入理解分布式系统中的关键概念:三阶段提交、补偿事务、消息队列与Saga事务模型及分布式ID生成方案
  • C#通过接口 继承接口的类 实现约束 对List内数据类型的值进行排序,可直接复制使用