当前位置: 首页 > news >正文

卷积神经网络

1、背景

浅层神经网络

大约二三十年前,神经网络曾经是机器学习领域特别热门的一个方向,这种基于统计的机器学习方法比起过去基于人工规则的专家系统,在很多方面显示出优越性。

但是后来,因为理论分析的难度,加上训练方法需要很多经验和技巧,以及巨大的计算量和优化求解难度,神经网络慢慢淡出了科研领域的主流方向。

值得指出的是,神经网络(如采用误差反向传播算法:Back Propagation,简称BP算法,通过梯度下降方法在训练过程中修正权重使得网络误差最小)在层次深的情况下性能变得很不理想(传播时容易出现所谓的梯度弥散Gradient Diffusion或称之为梯度消失,根源在于非凸目标代价函数导致求解陷入局部最优,且这种情况随着网络层数的增加而更加严重,即随着梯度的逐层不断消散导致其对网络权重调整的作用越来越小),所以只能转而处理浅层结构(小于等于3),从而限制了性能。

2、介绍

卷积神经网络是神经网络的一种变形
卷积神经网络与神经网络的主要区别就是CNN采用了卷积和子采样过程。
神经生物学中局部感受野的提出(1962)催生了卷积的思想。
卷积减少了CNN
网络参数,子采样减少了网络参数,权值共享大大减少的CNN网络参数。但是CNN具备深层结构

3、衰落

在很长时间里,CNN虽然在小规模的问题上,如手写数字,取得过当时世界最好结果,但一直没有取得巨大成功。这主要原因是,CNN在大规模图像上效果不好,比如像素很多的自然图片内容理解,所以没有得到计算机视觉领域的足够重视。

201210月,Geoffrey Hinton和他的两个学生在著名的ImageNet问题上用更深的CNN取得世界最好结果,使得图像识别大踏步前进。在Hinton的模型里,输入就是图像的像素,没有用到任何的人工特征。

2006年,Geoffrey Hinton基于深度置信网(Deep Belief NetDBN——其由一系列受限波尔兹曼机(Restricted Boltzmann MachineRBM)组成,提出非监督贪心逐层训练(Layerwise Pre-Training)算法,应用效果才取得突破性进展。

之后Ruslan Salakhutdinov提出的深度波尔兹曼机(Deep Boltzmann MachineDBM)重新点燃了人工智能领域对于神经网络(Neural Network)和波尔兹曼机(Boltzmann Machine)的热情,才由此掀起了深度学习的浪潮

4、突破性文章

Hinton, G. E., Osindero, S. and Teh, Y., A fast learning algorithm for deep belief netsNeural Computation 18:1527-1554, 2006

Yoshua Bengio, Pascal Lamblin, Dan Popovici and Hugo Larochelle, Greedy Layer-Wise Training of Deep Networks, in J. Platt et al. (Eds), Advances in Neural Information Processing Systems 19 (NIPS 2006), pp. 153-160, MIT Press, 2007<比较了RBMAuto-encoder>

Marc’Aurelio Ranzato, Christopher Poultney, Sumit Chopra and Yann LeCun Efficient Learning of Sparse Representations with an Energy-Based Model, in J. Platt et al. (Eds), Advances in Neural Information Processing Systems (NIPS 2006), MIT Press, 2007<将稀疏自编码用于回旋结构(convolutional architecture)>

与前向神经网络不同,RBM(受限波尔兹曼机)中的可见层和隐含层之间的连接是无方向性且全连接的。对比差异无监督训练是RBM的一个重要算法,包含了正向过程、反向过程和权值更新三个步骤,主要目标是使生成的数据与原数据尽可能相似,并通过对比两者的差异来调整权值更新:

5、应用

2012年6月,纽约时报披露了Google Brain项目,吸引了公众的广泛关注。这个项目是由著名的斯坦福大学的机器学习教授Andrew Ng和在大规模计算机系统方面的世界顶尖专家Jeff Dean共同主导,用16,000CPU Core的并行计算平台去训练含有10亿个节点的深度神经网络(DNNDeep Neural Networks),使其能够自我训练,对2万个不同物体的1,400万张图片进行辨识。

在开始分析数据前,并不需要向系统手工输入任何诸如“脸、肢体、猫的长相是什么样子”这类特征。Jeff Dean说:“我们在训练的时候从来不会告诉机器:‘这是一只猫’(即无标注样本)。系统其实是自己发明或领悟了‘猫’的概念。”

20143月,同样也是基于深度学习方法,Facebook的 DeepFace 项目使得人脸识别技术的识别率已经达到了 97.25%,只比人类识别 97.5% 的正确率略低那么一点点,准确率几乎可媲美人类。该项目利用了 层的神经网络来获得脸部表征,神经网络处理的参数高达 1.2亿。

ANN(人工神经网络)又被称为浅层神经网络(shallow neural network,也可能使用了CNN的方法。

CNN(卷积神经网络)其实是已经很早提出来的理论,也得到了在字母识别数字识别上的好的运用,letnet-5

DNN(深度神经网络)可近似为深度卷积神经网络(CNNs),将卷积神经网络的深度大大加深。

DBN(深度置信网)Deep Belief Net

相关文章:

  • es由一个集群迁移到另外一个集群es的数据迁移
  • Vue使用Vue Router路由:通过URL传递与获取参数
  • 自动化测试概念篇
  • 【ARM】A64指令介绍及内存屏障和寄存器
  • 《拿下奇怪的前端报错》:nvm不可用报错`GLIBC_2.27‘‘GLIBCXX_3.4.20‘not Found?+ 使用docker构建多个前端项目实践
  • 3.2 USART 通用同步/异步收发器
  • ELK日志分析系统
  • 50页PPT麦肯锡精益运营转型五步法
  • 蓝桥杯2024省C
  • 基于DeepFace深度学习模型的离线版人脸识别API接口实现(类似百度在线API接口)
  • Qt clicked()、clicked(bool)、toggled(bool)信号的区别和联系
  • 轻型DXF文件格式
  • 【WebGIS实例】(17)下载瓦片底图并实现离线加载——以天地图为例
  • 【WPF】02 按钮控件圆角配置及状态切换
  • c#的委托、事件
  • Html css样式总结
  • 【SemeDrive】【X9H】SPI 通讯 —— 应用层到驱动层的调用
  • ByteCinema(1):用户的登录注册
  • Leetcode—1014. 最佳观光组合【中等】
  • Win11家庭版找不到gpedit.msc文件怎么办
  • 王毅谈中拉论坛十年成果
  • 兰州大学教授安成邦加盟复旦大学中国历史地理研究所
  • 人民日报整版聚焦:专家学者看2025中国经济增长点
  • 鄂州:锁死中小学教师编制总量,核减小学编制五百名增至初中
  • 被取消总统候选人资格,金文洙:将采取政治法律措施讨回公道
  • 玉渊谭天丨中方为何此时同意与美方接触?出于这三个考虑