深度学习-LeNet5-AlexNet
文章目录
- 总结
- AlexNet
- 参数量少,计算量小
- 迁移学习

一组Conv与Pool称为一层,Conv−>激活函数−>PoolConv->激活函数->PoolConv−>激活函数−>Pool
f:过滤器(窗口)大小
s:步长
n:过滤器数量
(N+2P−FS+1)\left(\frac{N+2P-F}{S}+1\right) (SN+2P−F+1)N是原数据大小
P是填充
F是窗口大小
S是步长
- 卷积池化层
- 全连接层
相当于浅层神经网络了
总结
size的变化不能太快,比如从4704直接变为10
- 参数的数量
Conv1:5∗5∗6∗35*5*6*35∗5∗6∗3
过滤器窗口大小∗过滤器窗口大小∗每一个通道过滤器数量∗通道数量(彩色为3)过滤器窗口大小*过滤器窗口大小*每一个通道过滤器数量*通道数量(彩色为3)过滤器窗口大小∗过滤器窗口大小∗每一个通道过滤器数量∗通道数量(彩色为3)
Conv2:5∗5∗16∗65*5*16*65∗5∗16∗6
过滤器窗口大小∗过滤器窗口大小∗每一个通道过滤器数量∗通道数量(由上一层输出结果确定14∗14∗6)过滤器窗口大小*过滤器窗口大小*每一个通道过滤器数量*通道数量(由上一层输出结果确定14*14*6)过滤器窗口大小∗过滤器窗口大小∗每一个通道过滤器数量∗通道数量(由上一层输出结果确定14∗14∗6)
AlexNet
参数量太大,计算量太大,需要优化。
参数量少,计算量小
- inception结构
迁移学习