当前位置: 首页 > news >正文

深度学习-卷积神经网络CNN-1×1卷积层

1x1卷积核,又称为网中网(Network in Network):NIN

卷积的本质是有效提取相邻像素间的相关特征,而1×1的卷积显然没有此作用。它失去了卷积层的特有能力——在高度和宽度维度上,识别相邻元素间相互作用的能力

但是,它的唯一计算发生在通道上,具有融合不同通道的信息的能力

  • 例如:

    • 减少通道数(降维):将输入特征图的通道数减少,从而降低计算复杂度。

    • 增加通道数(升维):将输入特征图的通道数增加,从而提供更多的特征表示能力。

没有空间信息,相当于 ==> 把输入的二维信息拉成了一个一维向量信息。

其实这就更像是逐像素的共享权重,类似于全连接层。

相当于一个全连接层。

通常用于调整网络层的通道数量和控制模型复杂性。

多尺度特征融合:

  • 在一些网络架构中,1×1卷积可以用来融合不同尺度的特征图。

  • 例如,可以将不同大小的特征图转换为相同的通道数,然后进行融合,以便更好地利用多尺度信息。

经典应用:

  • 降维:在应用3×3或5×5卷积之前,使用1×1卷积减少输入通道数,从而降低计算量。

  • 升维:将不同大小卷积核的输出转换为相同的通道数,以便进行特征融合。

  • 增加非线性:1*1卷积核,可以在保持feature map尺度不变的(即不损失分辨率)的前提下大幅增加非线性特性(利用后接的非线性激活函数),把网络做的很deep。

def corr2d_multi_in_out_1x1(X, K):c_i, h, w = X.shapec_o = K.shape[0]X = X.reshape((c_i, h * w))K = K.reshape((c_o, c_i))# 全连接层中的矩阵乘法Y = torch.matmul(K, X)return Y.reshape((c_o, h, w))X = torch.normal(0, 1, (3, 3, 3))
K = torch.normal(0, 1, (2, 3, 1, 1))Y1 = corr2d_multi_in_out_1x1(X, K)
Y2 = corr2d_multi_in_out(X, K)
assert float(torch.abs(Y1 - Y2).sum()) < 1e-6
http://www.dtcms.com/a/320055.html

相关文章:

  • Flink-1.19.0源码详解9-ExecutionGraph生成-后篇
  • UE5多人MOBA+GAS 39、制作角色上半身UI
  • 字符串匹配(重点解析KMP算法)
  • 6 大模块!重构物业运营方式
  • 跨境电商增长突围:多维变局下的战略重构与技术赋能
  • 数智先锋 | Bonree ONE 赋能通威股份有限公司提升全栈可观测性能力
  • 深入解析NVIDIA Nsight工具套件:原理、功能与实战指南
  • 房产证识别在房产行业的技术实现及应用原理
  • Python Socket 脚本深度解析与开发指南
  • 扣扣号码展示网站源码_号码售卖展示系统源码 全开源 带后台(源码下载)
  • 5、倒计时翻页效果
  • 工作任务管理
  • 《C语言》指针练习题--1
  • Python入门Day17:函数式编程(map/filter/reduce/lambda)
  • 浏览器渲染与GPU进程通信图解
  • Numpy科学计算与数据分析:Numpy数组操作入门:合并、分割与重塑
  • PWM常用库函数(STC8系列)
  • 【Linux基础知识系列】第八十七篇 - 使用df命令查看磁盘空间
  • 橙河网络:Cint站点如何注册?好做吗?
  • 街道垃圾识别准确率↑32%:陌讯多模态融合算法实战解析
  • 解锁制药新质生产力:合规与效率双赢的数字化转型之道
  • 基于肌电信号的神经网络动作识别系统
  • docker mysql 5.6
  • CSS--:root指定变量,其他元素引用
  • 【题解】洛谷P3172 [CQOI2015] 选数[杜教筛]
  • 【mtcnn】--论文详解重点001之窗口滑动~
  • 板块三章节4——iSCSI 服务器(待更新)
  • python数据结构与算法(基础)
  • 栅栏密码的加密解密原理
  • RISCV instr 第31-40章