【12】 神经网络与深度学习(下)
文章目录
- 5 全连接神经网络与深度学习
-
- 51 背景知识
- 5.2 感知机
-
- 习题12.14
- 习题12.15
- 5.3 多层前馈神经网络(输入是向量)
-
- 5.3.1 人工神经元模型
-
- 习题12.16
- 习题12.17
- 习题12.20
- 5.3.2 互连神经元形成全连接神经网络
- 5.4 正向传播前馈神经网络
-
- 5.4.1 正向传播方程(计算复杂度高)
-
- 习题12.24
- 5.4.2 矩阵公式(运算高效)
- 5.5 使用反向传播训练深层神经网络
-
- 5.5.1 反向传播方程
- 5.5.2 矩阵公式
- 2024甄题【简答题】习题12.22
- 习题12.25
- 习题12.27
- 习题12.29
- 6 深度卷积神经网络基础(输入是图像,适用于自动习和图像分类)
-
- 6.1 一种基本的CNN结构
-
- 6.1.1 CNN的操作基础
- 6.1.2 CNN中的神经计算
- 6.1.3 多幅输入图像
- 习题12.30
- 习题12.31
- 6.2 正向通过CNN的传递公式
- 6.3 用于训练CNN的反向传播方程
-
- 习题12.32
- 6.3 训练CNN的几个简单应用
- 2023甄题【简答题】
- 可考题【简答题】
- 7 实现的一些附加细节
- 8 设计题
-
- 2024甄题【设计题】
- 2023甄题【设计题】
- 2015甄题【设计题】
- 2014、2018甄题【设计题】
- 习题12.33【设计题】
- 可考题【设计题】
- 可考题【设计题】
- 可考题【设计题】
- 9 设计题中补充技术的简单介绍
-
- 暗通道先验法
- 白平衡
- 透视变换
- OCR识别
- 正则匹配
- 归一化互相关
- U-Net
- LBP (局部二值模式, Local Binary Pattern)
- ImageNet数据集
- MTCNN (Multi-task Cascaded Convolutional Networks)
- RetinaFace
- FaceNet
- ArcFace
- 三元组损失 (Triplet Loss)
- ArcFace Loss
- 习题12.34
5 全连接神经网络与深度学习
51 背景知识
深度学习的核心在于使用大量非线性计算单元(称为人工神经元),这些单元以类似于哺乳动物视觉皮层中神经元互连的方式组织成网络结构。通过这些网络,系统可以自适应地学习从输入数据到输出决策的映射关系。
神经网络的发展历程
-
早期发展:
- 20世纪40年代:McCulloch 和 Pitts 提出了二元阈值神经元模型,这是神经网络的早期理论基础。
- 20世纪50-60年代:Rosenblatt 提出了感知机模型,能够在线性可分的情况下收敛到正确的分类解,但在处理更复杂的问题时表现有限。
-
局限与突破:
- 20世纪60-80年代:Minsky 和 Papert 指出了感知机在处理非线性问题时的局限性,使得神经网络的研究一度停滞。
- 1986年:Rumelhart, Hinton 和 Williams 开发了反向传播算法,为多层神经网络提供了有效的训练方法,使其能够解决复杂的模式识别问题。
神经网