当前位置: 首页 > wzjs >正文

宁波网站建设哪里有手机微信网站链接

宁波网站建设哪里有,手机微信网站链接,网站模板安卓,谷城建设局网站引入: 独热编码(one-hot):对于分类任务的输出,也就是是或不是某类的问题,采取独热编码的形式将y由一离散值转化为连续的概率分布,最大值所在下标为预测类 输入的处理:对于任意一张…

引入:

独热编码(one-hot):对于分类任务的输出,也就是是或不是某类的问题,采取独热编码的形式将y由一离散值转化为连续的概率分布,最大值所在下标为预测类

输入的处理:对于任意一张彩色图片,通常转化为用3224224的矩阵表示(通道数,高度,宽度),如果直接展平这个图片,就会得到224*224+224*224+224*224个参数,直接用这么多参数去全连接肯定是不合适的,正确处理方法——卷积神经网络

卷积神经网络:卷积操作是通过卷积核在输入图片上滑动,每次计算卷积核覆盖区域与卷积核的 逐元素乘积,然后将所有乘积结果 求和,得到输出特征图的一个值【输出的结果越大,就说明大图中的这一个部分和卷积核越像】

输入图片【特征图】
[  [1, 0, 1],  [0, 1, 0],  [1, 0, 1]  
]卷积核
[  [1, 0],  [0, -1]  
]输出结果【特征图】
[  [0, 0],  [0, 0]  
]

但是按照这样的规则卷积,会使得特征图尺寸变小,若考虑维持特征图的尺寸,则可以考虑通过zeropadding操作,外圈补零

在这里插入图片描述



卷积神经网路和图片分类的关系:

当我们需要判断某张图是不是鸟,我们并不需要看完整张图,而是可以把鸟嘴,或者爪子等等各个很小的部分作为卷积核去和整张图卷积,得到的值越大就说明越像,进而可以说明这张图是不是鸟

但是我们怎么知道卷积核就是鸟嘴呢???

所以我们让深度学习来训练的目标就是,让卷积核变成我们想要的

卷积核就是深度学习中的参数,卷积核大小称为神经元的感受野,使用更大的卷积核就可以有更大的感受野】





卷积实例:

【核心思想:把3224224的图片通过多次卷积多次池化变为102477(减少参数),然后拉直展平得到一维向量102477=50176,然后通过全连接实现linear(50176,3),将结果通过softmax得到分类的概率分布结果,最后求预测和实际的loss,梯度回传更新参数(即卷积核),循环往复……】

在这里插入图片描述

第一步:卷积+池化

在这里插入图片描述

输入和卷积核都是图片的形式,也就是都是三通道的,所以卷积的过程也是三个通道同时卷积,也就是两个3*3*3的矩阵进行卷积,对应位置相乘有27个数,再相加得到一个数

【这样其实实现了参数的减少,和引入卷积的目的对应上了!但是只依靠卷积每次维度减少2未免也太少了,或者使用了padding特征图大小直接是不变的,这里先不讨论,看后面】

如果想继续卷呢?其实也是可以的,如下图所示,把五个卷积核得到的结果再叠放起来,还可以继续卷(但应注意此时的卷积核维度要发生变化,不能还是3*3*3了,要变成5*3*3

【而且后续再卷就不太能用“卷积结果越大越相似”这种直观的理解来解释了,又变得黑盒了】

在这里插入图片描述

那么应该如何减小特征图大小呢?

方法一:扩大步长 【不常用,会丢失信息,且引入计算】
【公式:(输入-卷积核+2padding) / 步长+1 】

方法二:pooling池化【常用!】
【平均池化又引入了计算。。。实际使用时更常用最大池化,取最显著的即可】

在这里插入图片描述在这里插入图片描述

第二步:卷积到全连接

(略)

第三步:结果到输出

其实就是把左边的结果过一遍softmax(直接调用),变成右边的概率分布(三种概率和为1)

也就是说该图片是猫的概率为0.953

在这里插入图片描述

第四步:求预测和结果的loss

衡量分类问题的损失:交叉熵损失CrossEntropy Loss(直接调用)

具体公式先算了




扩展内容:

AlexNet:relu+dropout+池化+归一化

【relu:比sigmoid更能预防梯度消失,因为relu大于0的部分求导始终为1,而sigmoid趋向无穷大的时候导数趋向于0了(结合后面梯度消失理解)】

【dropout:在每一轮训练中随机取一些神经元不用,缓解过拟合】

【过拟合:参数越多越容易过拟合】

【池化:就是前面讲的池化】

【归一化:防止受到数据量纲影响,相对大小才有意义,保持学习有效性,缓解梯度消失和梯度爆炸】


vgg:更深更大,用小卷积核代替大卷积核

在这里插入图片描述

比如上图,一个55的卷积核即实现1块覆盖25块(25合1),而两个33的卷积核(卷了两次)可以代替一个5*5的卷积核,相比之下参数量更小(18和25),防止过拟合

ResNet:一乘一卷积+残差连接

解决问题:模型越深反而效果越差,而且不是因为过拟合,这是因为梯度消失合梯度爆炸

在这里插入图片描述

【梯度消失和梯度爆炸:求梯度即从后往前链式求导,如果层数太多,假如有100层,如果所有导数都是0.02,那么0.02的100次方就趋向于0,也就是梯度趋向于零,这时没有办法更新参数,也就是梯度消失;反之如果所有导数都是10,那么10的100次方就是梯度爆炸】

【梯度爆炸比较好处理,可以人为设置导数超过1时就设置为1,但是梯度消失很难处理,考虑残差连接】

在这里插入图片描述

上图所示即为残差连接,模型的输出=模型原本的输出+模型原本的输入,这样out对x求导永远是大于1的,可以防止梯度消失!

但是模型的作用一般就是调整维度,所以模型的输入和输出维度不一致要怎么相加?用一乘一卷积做调整

IMG_5453.jpeg

一乘一卷积的另一个作用是:比直接卷积减少了参数量

IMG_5451.jpeg



深度透析:

卷积 = 一种参数共享的“不全连接”

【参数共享:指卷积核的w1234是共享的】

【不全连接:如下图所示,对第一个卷积结果2来说,它只和1245这四个位置有关,因为就是这么卷的。好处是比全连接有效减少了参数!不容易过拟合!】

在这里插入图片描述

http://www.dtcms.com/wzjs/596071.html

相关文章:

  • flash企业网站源码中国域名注册中心
  • 狍与女人做爰网站如何制作个人网站教程
  • 网站优化 图片百度关键词排名代发
  • 重庆一站式建设网站平台市场咨询公司排名
  • 墨鱼网站建设合肥企业网站推广
  • 房产类网站建设英国做暧小视频网站
  • 怎么做企业网站教程视频足球直播网站怎么做的
  • 张家港杨舍网站制作广州品牌型网站建设
  • 重庆网站推广什么个人 网站建设
  • 郑州企业网站制作艺术字logo生成器
  • app网站开发小程序做交通事故的网站
  • 网站开发过程 知乎老版本网站开发工具
  • 南漳网站制作wordpress 数据库链接
  • 好的免费移动网站建设平台有哪些金湖有哪里做网站的
  • 广西水利工程建设管理网站wordpress 关掉缓存
  • 网站维护英文网页设计制作方案
  • 高端网站建设公司好不好天元建设集团有限公司第十建筑工程公司
  • 南安市城乡住房建设局网站电话销售怎么做 网站
  • 设计师采集网站乐清站在哪
  • seo优化网站查询长沙企业展厅设计公司
  • 自助申请海外网站微网站如何做推广方案设计
  • 网站贴子推广怎么做资讯门户类网站
  • 新房装修图片网站排名优化培训课程
  • 深圳网站搭建价格百度网盘做视频网站
  • 网站备案 空间备案 域名备案wordpress 免费APP
  • 网站 ipc 备案汕头seo网络推广
  • 手机网站开源系统深圳网站建设luony
  • 企业网站个人备案亚网互联网站设计
  • 黑龙江省建设银行网站怎么做网络推广品牌哪家强
  • 上海网站建设 网页做网络运维工程师招聘