当前位置: 首页 > wzjs >正文

重庆网站建设流程石家庄seo全网营销

重庆网站建设流程,石家庄seo全网营销,电子邮件免费注册,网站建设案例分析全连接层和卷积层等效情况举例 在什么情况下,全连接层和卷积层是等效的? 一是当卷积滤波器与感受野大小相当时;二是当卷积滤波器大小为1时。 import torch print(f"PyTorch version: {torch.__version__}")PyTorch version: 2.7…

全连接层和卷积层等效情况举例

在什么情况下,全连接层和卷积层是等效的?

一是当卷积滤波器与感受野大小相当时;二是当卷积滤波器大小为1时。

import torch
print(f"PyTorch version: {torch.__version__}")
PyTorch version: 2.7.0+cpu

1. 全连接层参考

下图展示了一个有4个输入单元和2个输出单元的全连接层示例,它包含了8个权重和2个偏置单元。

全连接层

# 设置随机种子,保证结果可复现
torch.manual_seed(888)# 定义一个全连接层(线性层),输入特征数为4,输出特征数为2
fc = torch.nn.Linear(4, 2)# 构造一个输入张量,形状为(1, 4)
inputs = torch.tensor([[1., 2., 3., 4.]])# 在不计算梯度的上下文中进行前向传播
with torch.no_grad():out1 = fc(inputs)# 打印输出结果
print(out1)
tensor([[0.2983, 1.4994]])
# Check the weights of the linear layer
fc.weight
Parameter containing:
tensor([[-0.4525,  0.1935, -0.3702,  0.3160],[ 0.2698,  0.2885,  0.2830, -0.0791]], requires_grad=True)

2. 情景1:卷积核大小等于输入大小

假设卷积核大小为 2 × 2 2 \times 2 2×2,有一个输入通道、两个输出通道。输入的大小同样是 2 × 2 2 \times 2 2×2

卷积核大小等于输入大小

PyTorch中的卷积层默认期望输入为NCHW格式,其中:

  • N = 批量大小(batch size)
  • C = 通道数(channels)
  • H = 高度(height)
  • W = 宽度(width)
# 将形状为(1, 4)的inputs张量重塑为(1, 1, 2, 2),以匹配卷积层的输入格式(N, C, H, W)
reshaped = inputs.reshape(-1, 1, 2, 2)
reshaped
tensor([[[[1., 2.],[3., 4.]]]])
# 定义一个2D卷积层,输入通道数为1,输出通道数为2,卷积核大小为2x2
conv = torch.nn.Conv2d(in_channels=1,      # 输入通道数out_channels=2,     # 输出通道数kernel_size=2       # 卷积核大小为2x2
)# 查看卷积层的权重张量形状
conv.weight.shape      # 形状为 (2, 1, 2, 2):2个输出通道,每个通道1个输入通道,卷积核2x2
torch.Size([2, 1, 2, 2])

注意:Conv2d中的权重同样是随机初始化的,因此如果要获得完全相同的结果,需要将卷积层中的随机权重用全连接层中的权重进行覆盖。

# 在不计算梯度的上下文中,将全连接层的权重和偏置赋值给卷积层
with torch.no_grad():# 将fc第0个输出单元的权重(1x4)重塑为(1,2,2),赋值给conv第0个输出通道的卷积核conv.weight[0][0] = fc.weight[0].reshape(1, 2, 2)# 将fc第1个输出单元的权重(1x4)重塑为(1,2,2),赋值给conv第1个输出通道的卷积核conv.weight[1][0] = fc.weight[1].reshape(1, 2, 2)# 将fc的偏置赋值给conv的偏置conv.bias[0] = fc.bias[0]conv.bias[1] = fc.bias[1]# 用卷积层对输入进行前向传播out2 = conv(reshaped)# 打印卷积层的输出结果
print(out2)
tensor([[[[0.2983]],[[1.4994]]]])
# 比较全连接层输出和卷积层输出是否完全相等(元素级比较)
out1.flatten() == out2.flatten()
tensor([True, True])

3. 情景2:卷积核大小为1

卷积核大小为1

# 将形状为(1, 4)的inputs张量重塑为(1, 4, 1, 1),以匹配卷积层输入格式(N, C, H, W)
reshaped2 = inputs.reshape(-1, 4, 1, 1)
reshaped2
tensor([[[[1.]],[[2.]],[[3.]],[[4.]]]])
# 定义一个2D卷积层,输入通道数为4,输出通道数为2,卷积核大小为1x1
conv = torch.nn.Conv2d(in_channels=4,      # 输入通道数为4out_channels=2,     # 输出通道数为2kernel_size=1       # 卷积核大小为1x1
)# 查看卷积层的权重张量形状
conv.weight.shape
torch.Size([2, 4, 1, 1])
# 在不计算梯度的上下文中,将全连接层的权重和偏置赋值给卷积层
with torch.no_grad():# 将fc第0个输出单元的权重(1x4)重塑为(4,1,1),赋值给conv第0个输出通道的卷积核conv.weight[0] = fc.weight[0].reshape(4, 1, 1)# 将fc第1个输出单元的权重(1x4)重塑为(4,1,1),赋值给conv第1个输出通道的卷积核conv.weight[1] = fc.weight[1].reshape(4, 1, 1)# 将fc的偏置赋值给conv的偏置conv.bias[0] = fc.bias[0]conv.bias[1] = fc.bias[1]# 用卷积层对输入进行前向传播out3 = conv(reshaped2)# 打印卷积层的输出结果
print(out3)
tensor([[[[0.2983]],[[1.4994]]]])
out1.flatten() == out3.flatten()
tensor([True, True])

4. 总结

本文通过具体的PyTorch代码和可视化示例,演示了全连接层(Linear)和卷积层(Conv2d)在两种特殊情况下的等效性:

    1. 当卷积核大小等于输入特征的空间尺寸时,卷积操作等价于全连接操作。此时,每个卷积核覆盖整个输入区域,权重和偏置可以一一对应映射到全连接层。
    1. 当卷积核大小为1×1,且输入通道数等于全连接层输入特征数时,卷积层的每个输出通道等价于全连接层的一个输出单元。此时,卷积层的权重和偏置同样可以直接赋值自全连接层,实现完全等价的前向传播结果。

通过实验验证,两种情况下卷积层和全连接层的输出完全一致。这说明在特定结构下,二者可以互相替换。

http://www.dtcms.com/wzjs/235193.html

相关文章:

  • asp.net做网站怎么样seo外链建设的方法
  • 驻马店网站制作百度信息流怎么做效果好
  • 怎么建设境外网站昆明seo
  • dw做公司网站seo 网站排名
  • 武冈网站建设多少钱网络营销概述ppt
  • 网站建设需要什么资质建设公司网站大概需要多少钱?
  • 佛山市企业网站seo报价适合成人参加的培训班
  • 手机端网站排名盐城seo网站优化软件
  • 内部网站做域名解析到端口seo免费资源大全
  • 宿州精品网站建设百度网盘手机版
  • 关于党建网站建设的建议上海百度整站优化服务
  • 县级网站建设培训会网站开发软件有哪些
  • 医院网站建设 中企动力重庆网站关键词排名
  • 长春网站排名推广企业建站都有什么网站
  • wordpress修改目录河南网站关键词优化
  • 早晨设计 做网站设计吗视频号推广
  • 百度 网站速度诊断seo建站收费地震
  • 靠谱的建站公司哪家专业qq推广链接生成
  • 南宁seo湖南seo快速排名
  • cc域名做网站怎么样广告文案经典范例200字
  • 做竞争小的网站最新今日头条
  • 网站做中英文切换crm软件
  • 沈阳网站建设优秀公司网站目录提交
  • 手机网站头部图片怎么做深圳网站建设推广
  • 分类信息网站的建设维护优化大师apk
  • 怎么制作网站镜像制作网页完整步骤
  • 塔式服务器主机建网站产品软文怎么写
  • 建设网站的公司济南兴田德润o评价百度拍照搜索
  • 全国公安网站备案电商网站建设 网站定制开发
  • 网站建设时间影响因素宁波seo推广方式排名