经典架构解读
深度学习=多层神经网络➕自动特征工程
结构化数据适合机器学习
图像等高维数据适合神经网络-cnn 卷积提取 序列提取-深度学习
基本cnn架构
卷积层是卷积核在输入图像上滑动提取局部特征
全连接层-w b 权重和偏置
池化层是降低特征维度,减少参数数量,并增强模型的不变性
1 2 3
2 3 4
3 4 5 如果压缩成一个点 那就是5
ai锐化图片举例 图片中东西的轮廓就是最大池化连成的线。因此推测池化层不能算一个层,按我来看就是一个操作,因为他不能学习。
完整CNN流程为:输入图像→输入预处理(如尺寸调整、归一化)→卷积层→激活函数(ReLU)→池化层→重复卷积层→激活函数→池化层→全连接层→输出层。
CNN模型里,输入300×300的图像,经过卷积池化处理变成20×20的特征图,再展平成400×1的向量,最后输入到有2个神经元的全连接隐藏层,这是维度转换的过程。
循环神经网络 rnn
自然语言处理nlp 和时间序列
因为rnn本身数学公式的问题,很容易导致梯度爆炸和消失的问题,所以衍生出了循环网络变体 lstm
long short term长短期记忆网络,但也只比rnn好一点
LSTM gru 门控循环单元 是lstm简化版
rnn 基础层 lstm层 gru层 嵌入层 全连接层
架构本质上是为任务服务,为了更好的满足任务而进行网络排列组合整体结构和组织方式。典型的cnn架构模式 卷积层➕激活函数➕池化层多次重复➕全连接层➕输出层分类或回归。
总而言之,不管架构再怎么复杂都是封装好的,即使不懂原理,学会使用也行😂