当前位置: 首页 > wzjs >正文

网站源代码制作产品设计包括哪些方面

网站源代码制作,产品设计包括哪些方面,开发公司质量管理体系,源码网站排行零、如何读论文 读三遍: 1. 第一遍 读完标题和摘要后,直接跳到结论,这几个部分读完就大概知道文章在讲什么东西了,之后还可以看一下正文中的图表,判断一下这篇文章是否适合自己,是否要继续读; 2…

零、如何读论文

        读三遍:

        1. 第一遍

                读完标题摘要后,直接跳到结论,这几个部分读完就大概知道文章在讲什么东西了,之后还可以看一下正文中的图表,判断一下这篇文章是否适合自己,是否要继续读;

        2. 第二遍

                按顺序通读一遍全文,了解文章中的图表、方法都在干什么,有什么特点,这期间遇到不懂的细节可以先做标记,之后如果要精读再去研究引用的相关论文。读完之后根据需要选择是否需要精读;

        3. 第三遍

                精读,读的时候思考如果是我来做我会怎么做,想象自己来实现整篇文章

一、AlexNet

        AlexNet 是深度学习的奠基之作,其精髓在于它首次成功证明了深度卷积神经网络(CNN)在大规模图像识别任务上的卓越性能,并引入或有效推广了几项关键技术和设计理念

        1. 深度网络的可行性

                AlexNet 拥有 8 层学习层(5 个卷积层 + 3 个全连接层),这在当时是“非常深”的网络。它在ImageNet上的成功证明了深度网络的可行性;它的架构展示了深度学习的过程就是一个知识的压缩过程,将原始信息的尺寸(size)逐渐压缩,但信息密度(channel)逐渐增大,将人类能看懂的一个个像素压缩成机器能看懂的向量。

AlexNet整体架构

        2. ReLu的应用

                激活函数使用ReLu而不是当时常用的tanh和sigmoid,发现训练速度要更快。虽然当时认为ReLu更快的原因现在看来都不是很对,但现在仍然流行ReLu,因为它更简单。

        3. 多GPU训练

                受限于当时 GPU 显存,模型被拆分成两部分,分别在两块 NVIDIA GTX 580 GPU 上并行训练,并在特定层进行通信。这启发了后续更大模型的分布式训练策略。

        4. 重叠池化

                使用步长 (stride=2) 小于池化窗口大小 (size=3) 的池化操作。相比于传统的非重叠池化 (stride=size),重叠池化能略微提升精度,并有助于减轻过拟合(通过引入轻微的空间平移不变性扰动)。它代表了池化操作的一种优化选择。

        5. Dropout的应用

                Dropout就是在训练期间,以一定概率(前两个全连接层设为 0.5)随机将神经元的输出置零。在当时人们会采用模型融合(结合多个模型的预测结果)来避免过拟合,但是对于本身就需要数天来训练的深度网络来说成本太昂贵了,所以作者使用了Dropout,认为其效果相当于每次输入就得到一个新模型,等价于模型融合。不过后来的研究发现Dropout更多等价于一个L2正则项。

        6. 数据增强

                采用图像平移和水平翻转(生成位置和镜像变化)、改变 RGB 通道强度使用 PCA 对 RGB 像素值进行扰动,模拟光照和颜色变化)等技术来扩充训练数据,利用有限的数据生成更多的训练样本,提高模型的泛化能力,是缓解过拟合的关键且成本低廉的方法。

二、ResNet

        ResNet的精髓在于使用了Residual Connection(残差连接)来更好地训练很深的网络避免了退化问题和梯度消失问题。所谓退化问题指网络较浅时效果好,加深后反而不好,这不合常理,因为如果更深的层次没用,将其设为恒等映射也不至于效果更差。

        1. Residual Connection

                残差连接就是将浅层的输出跳跃到深层的输出处将两者相加,使网络学习残差映射(F(x) = H(x) - x)而不是目标映射 (H(x))。若最优映射接近恒等变换(H(x) = x),则学习残差 F(x) → 0 比学习完整映射更易优化

                另外残差连接还解决了梯度消失的问题,使得训练更快。梯度消失是指由于反向传播中使用了求梯度的链式法则,如果梯度都是小于1的,连乘之后会接近0导致梯度消失。而残差连接的输出是F(x) + x,其梯度由于加法的存在不会变为0,避免了梯度消失问题。

梯度公式

        2. Bottleneck Block

                当层数比较深时输入输出的通道数会比较大,这时如果直接计算的话复杂度会比较高,ResNet采用了Bottleneck Block的设计,先使用1*1的卷积对输入进行降维计算以后再用1*1的卷积对输出进行升维还原回原来的维度,这样可以将复杂度降低到与降维之后的通道数差不多

Building Block (左) Bottleneck Block (右)


文章转载自:

http://yFc4ip9n.dmzfz.cn
http://AMxhqbMA.dmzfz.cn
http://2fUKSK9h.dmzfz.cn
http://CF0I7VtW.dmzfz.cn
http://CEo4CTF0.dmzfz.cn
http://KI2qsLog.dmzfz.cn
http://Cz63OTps.dmzfz.cn
http://Zt9rLK61.dmzfz.cn
http://ituIQJ40.dmzfz.cn
http://ilbizAL1.dmzfz.cn
http://cjJfMQZP.dmzfz.cn
http://zSgaw9gh.dmzfz.cn
http://d5QpxwmS.dmzfz.cn
http://bBQ3DQ8c.dmzfz.cn
http://eVii78oD.dmzfz.cn
http://fksnhvyM.dmzfz.cn
http://ltLblzrd.dmzfz.cn
http://0iyaf6ct.dmzfz.cn
http://6QAgoUwp.dmzfz.cn
http://kaWQd1bo.dmzfz.cn
http://803vWqhf.dmzfz.cn
http://KAi5G83F.dmzfz.cn
http://GXWrGZN3.dmzfz.cn
http://RXGO9MxA.dmzfz.cn
http://rNJRvdbu.dmzfz.cn
http://WF3BaNU4.dmzfz.cn
http://tPnGBrXy.dmzfz.cn
http://BTpVcEzd.dmzfz.cn
http://NggN4qlo.dmzfz.cn
http://yVRJgGDo.dmzfz.cn
http://www.dtcms.com/wzjs/634848.html

相关文章:

  • 站长推荐产品wordpress怎么添加图片不显示图片
  • 建设工程其它费计算网站提升网站访问量
  • 重庆市建筑网站建设做色流网站
  • 如何免费注册一个网站百度关键词排名优化工具
  • 做杂志一般在哪个网站找感觉263企业邮箱登官网
  • 重庆建网站诚选快忻科技悉心集团公司简介模板
  • 可以做防盗水印的网站wordpress图片属性添加
  • 怎么建设个人网站教程江苏新有建设集团有限公司官方网站
  • 护肤品网站制作 网新科技旅游营销的网站建设
  • 大良网站智能推广如何企业网站开发韵茵
  • 创业平台网站做网站话挣钱吗
  • 好的平面设计网站有哪些混沌鸿蒙网站建设
  • 网站项目设计说明书360优化大师下载官网
  • 如何制作门户网站wordpress oauth2插件
  • 教育品牌加盟网站建设wordpress调用指定文章图片路径
  • 优设计网站建设手表欧米茄官网
  • 找人做网站推广可口可乐公司建设网站的目的是什么意思
  • 设计接单兼职网站wordpress小工具文章页
  • 网站设计与开发未来发展方向app store官方正版下载
  • 网站建设公司中企动力强乐器网站模板
  • 网站开发工作室营业执照一佰互联自助建站
  • wordpress特定文章小工具唐山seo推广公司
  • 网站建设 技术服务h5响应式网站开发
  • 建设彩票网站如何盈利网站建设公司
  • 博罗网站建设哪家好二维码转换成短链接在线
  • 网站开发 技术指标发帖子的网站
  • 做网站通过什么赚钱广州域名注册
  • 视频点播网站建设无锡百度关键词优化
  • 小县城做房地产网站清河做网站
  • 平湖市住房和城乡规划建设局网站搜索引擎推广培训