当前位置: 首页 > wzjs >正文

金山区网站建设友链交易平台源码

金山区网站建设,友链交易平台源码,菜单 标签 wordpress,衢州 网站 制作全连接层和卷积层等效情况举例 在什么情况下,全连接层和卷积层是等效的? 一是当卷积滤波器与感受野大小相当时;二是当卷积滤波器大小为1时。 import torch print(f"PyTorch version: {torch.__version__}")PyTorch version: 2.7…

全连接层和卷积层等效情况举例

在什么情况下,全连接层和卷积层是等效的?

一是当卷积滤波器与感受野大小相当时;二是当卷积滤波器大小为1时。

import torch
print(f"PyTorch version: {torch.__version__}")
PyTorch version: 2.7.0+cpu

1. 全连接层参考

下图展示了一个有4个输入单元和2个输出单元的全连接层示例,它包含了8个权重和2个偏置单元。

全连接层

# 设置随机种子,保证结果可复现
torch.manual_seed(888)# 定义一个全连接层(线性层),输入特征数为4,输出特征数为2
fc = torch.nn.Linear(4, 2)# 构造一个输入张量,形状为(1, 4)
inputs = torch.tensor([[1., 2., 3., 4.]])# 在不计算梯度的上下文中进行前向传播
with torch.no_grad():out1 = fc(inputs)# 打印输出结果
print(out1)
tensor([[0.2983, 1.4994]])
# Check the weights of the linear layer
fc.weight
Parameter containing:
tensor([[-0.4525,  0.1935, -0.3702,  0.3160],[ 0.2698,  0.2885,  0.2830, -0.0791]], requires_grad=True)

2. 情景1:卷积核大小等于输入大小

假设卷积核大小为 2 × 2 2 \times 2 2×2,有一个输入通道、两个输出通道。输入的大小同样是 2 × 2 2 \times 2 2×2

卷积核大小等于输入大小

PyTorch中的卷积层默认期望输入为NCHW格式,其中:

  • N = 批量大小(batch size)
  • C = 通道数(channels)
  • H = 高度(height)
  • W = 宽度(width)
# 将形状为(1, 4)的inputs张量重塑为(1, 1, 2, 2),以匹配卷积层的输入格式(N, C, H, W)
reshaped = inputs.reshape(-1, 1, 2, 2)
reshaped
tensor([[[[1., 2.],[3., 4.]]]])
# 定义一个2D卷积层,输入通道数为1,输出通道数为2,卷积核大小为2x2
conv = torch.nn.Conv2d(in_channels=1,      # 输入通道数out_channels=2,     # 输出通道数kernel_size=2       # 卷积核大小为2x2
)# 查看卷积层的权重张量形状
conv.weight.shape      # 形状为 (2, 1, 2, 2):2个输出通道,每个通道1个输入通道,卷积核2x2
torch.Size([2, 1, 2, 2])

注意:Conv2d中的权重同样是随机初始化的,因此如果要获得完全相同的结果,需要将卷积层中的随机权重用全连接层中的权重进行覆盖。

# 在不计算梯度的上下文中,将全连接层的权重和偏置赋值给卷积层
with torch.no_grad():# 将fc第0个输出单元的权重(1x4)重塑为(1,2,2),赋值给conv第0个输出通道的卷积核conv.weight[0][0] = fc.weight[0].reshape(1, 2, 2)# 将fc第1个输出单元的权重(1x4)重塑为(1,2,2),赋值给conv第1个输出通道的卷积核conv.weight[1][0] = fc.weight[1].reshape(1, 2, 2)# 将fc的偏置赋值给conv的偏置conv.bias[0] = fc.bias[0]conv.bias[1] = fc.bias[1]# 用卷积层对输入进行前向传播out2 = conv(reshaped)# 打印卷积层的输出结果
print(out2)
tensor([[[[0.2983]],[[1.4994]]]])
# 比较全连接层输出和卷积层输出是否完全相等(元素级比较)
out1.flatten() == out2.flatten()
tensor([True, True])

3. 情景2:卷积核大小为1

卷积核大小为1

# 将形状为(1, 4)的inputs张量重塑为(1, 4, 1, 1),以匹配卷积层输入格式(N, C, H, W)
reshaped2 = inputs.reshape(-1, 4, 1, 1)
reshaped2
tensor([[[[1.]],[[2.]],[[3.]],[[4.]]]])
# 定义一个2D卷积层,输入通道数为4,输出通道数为2,卷积核大小为1x1
conv = torch.nn.Conv2d(in_channels=4,      # 输入通道数为4out_channels=2,     # 输出通道数为2kernel_size=1       # 卷积核大小为1x1
)# 查看卷积层的权重张量形状
conv.weight.shape
torch.Size([2, 4, 1, 1])
# 在不计算梯度的上下文中,将全连接层的权重和偏置赋值给卷积层
with torch.no_grad():# 将fc第0个输出单元的权重(1x4)重塑为(4,1,1),赋值给conv第0个输出通道的卷积核conv.weight[0] = fc.weight[0].reshape(4, 1, 1)# 将fc第1个输出单元的权重(1x4)重塑为(4,1,1),赋值给conv第1个输出通道的卷积核conv.weight[1] = fc.weight[1].reshape(4, 1, 1)# 将fc的偏置赋值给conv的偏置conv.bias[0] = fc.bias[0]conv.bias[1] = fc.bias[1]# 用卷积层对输入进行前向传播out3 = conv(reshaped2)# 打印卷积层的输出结果
print(out3)
tensor([[[[0.2983]],[[1.4994]]]])
out1.flatten() == out3.flatten()
tensor([True, True])

4. 总结

本文通过具体的PyTorch代码和可视化示例,演示了全连接层(Linear)和卷积层(Conv2d)在两种特殊情况下的等效性:

    1. 当卷积核大小等于输入特征的空间尺寸时,卷积操作等价于全连接操作。此时,每个卷积核覆盖整个输入区域,权重和偏置可以一一对应映射到全连接层。
    1. 当卷积核大小为1×1,且输入通道数等于全连接层输入特征数时,卷积层的每个输出通道等价于全连接层的一个输出单元。此时,卷积层的权重和偏置同样可以直接赋值自全连接层,实现完全等价的前向传播结果。

通过实验验证,两种情况下卷积层和全连接层的输出完全一致。这说明在特定结构下,二者可以互相替换。

http://www.dtcms.com/wzjs/289896.html

相关文章:

  • 谷歌网站怎么做推广百度的排名规则详解
  • 做网站 信科网站建设便宜宁波好的seo外包公司
  • 做网站前的准备工作怎么看百度指数
  • wordpress有什么好玩的插件seo计费系统登录
  • windows系统的vps网站防攻击互联网推广怎么找渠道
  • wordpress上传视频限制广州做seo整站优化公司
  • 网站设计销售好做吗seo网络优化日常工作内容
  • pc 响应式网站模板ui设计
  • 县政府门户网站建设情况电销系统
  • 青岛网站制作选ls15227张家界网站seo
  • 金华建设局网站全球十大搜索引擎排名
  • 用动易做的校园网站互联网推广销售
  • wordpress go安卓优化大师旧版本
  • 网站建设架百度怎样发布信息
  • 柳市做网站的公司自己怎么做游戏推广赚钱
  • 娄底哪里做网站河南网站seo靠谱
  • 网站备案更改需要多久100个成功营销案例
  • 模仿图库网站开发网络广告案例
  • 网站建设寻找可以途径济南疫情最新情况
  • b2b2c网站建设seo网站推广全程实例
  • 网站建设基本常识获客渠道有哪些
  • 群晖做网站服务器 套件湖南专业关键词优化
  • 做网站的公司推荐长春百度快速优化
  • 深圳东门疫情淘宝关键词优化技巧教程
  • 成都关键词百度起诉seo公司
  • 艺考有哪些专业百度关键词优化多少钱一年
  • 提供网站建设运营公司资质网络营销推广渠道有哪些
  • 房地产网站怎么做培训心得体会500字
  • 网站怎么做qq授权登录环球军事网
  • 与网站开发有关的岗位是哪些优化神马网站关键词排名价格