当前位置: 首页 > wzjs >正文

公司招商型网站建设seo外链平台热狗

公司招商型网站建设,seo外链平台热狗,教育 企业 重庆网站建设,个人博客网站实验报告文章目录 前言1、Block结构2、Block代码实现总结 前言 在上一篇博文convbn算子融合中,介绍了convbn算子融合。本文将要介绍的RepVGG(Re-parameterized Convolutional Neural Network)是一种通过重新参数化技术将复杂的神经网络结构转换为简单…

文章目录

  • 前言
  • 1、Block结构
  • 2、Block代码实现
  • 总结


前言

 在上一篇博文conv+bn算子融合中,介绍了conv+bn算子融合。本文将要介绍的RepVGG(Re-parameterized Convolutional Neural Network)是一种通过重新参数化技术将复杂的神经网络结构转换为简单的卷积层的方法。这种方法可以在训练时使用复杂的多分支结构,在推理时将其简化为单一的卷积层,从而显著提高推理速度。

1、Block结构

 RepVGGBlock 是 RepVGG 网络的基本构建单元,它结合了 3x3 卷积、1x1 卷积和恒等映射,并通过了非共享权重的Batch Normalization (BN) 层来优化性能。具体来说:
 3x3 卷积:用于捕捉局部特征。
 1x1 卷积:用于降维和升维操作,减少计算量。
 恒等映射:确保输入和输出通道数相同。

2、Block代码实现

 本节提供了一个完整的Block单元测试,来模拟RepVGG的训练和测试(算子合并后),计算结果相等。读者可一键运行。

import torch
import torch.nn as nnclass RepVGGBlock(nn.Module):def __init__(self, in_channels, out_channels):super().__init__()assert in_channels == out_channels, "输入输出通道必须相同!"# 3x3卷积 + 独立BNself.conv3x3 = nn.Conv2d(in_channels, out_channels, kernel_size=3, padding=1, bias=False)self.bn3x3 = nn.BatchNorm2d(out_channels)# 1x1卷积 + 独立BNself.conv1x1 = nn.Conv2d(in_channels, out_channels, kernel_size=1, bias=False)self.bn1x1 = nn.BatchNorm2d(out_channels)# 恒等映射 + 独立BNself.identity = nn.BatchNorm2d(in_channels)# 初始化权重self._init_weights()def _init_weights(self):# 3x3卷积:Kaiming初始化nn.init.kaiming_normal_(self.conv3x3.weight, mode='fan_out', nonlinearity='relu')# 1x1卷积:初始化为零(等效于无操作,与恒等映射互补)nn.init.zeros_(self.conv1x1.weight)# 恒等映射:BN的gamma初始化为1,beta为0nn.init.ones_(self.identity.weight)nn.init.zeros_(self.identity.bias)def forward(self, x):# 训练时三支路独立计算branch3x3 = self.bn3x3(self.conv3x3(x))branch1x1 = self.bn1x1(self.conv1x1(x))branch_id = self.identity(x)return branch3x3 + branch1x1 + branch_iddef reparameterize(self):# 分别融合各分支的卷积和BNkernel3x3, bias3x3 = self._fuse_conv_bn(self.conv3x3, self.bn3x3)kernel1x1, bias1x1 = self._fuse_conv_bn(self.conv1x1, self.bn1x1)kernel_id, bias_id = self._fuse_identity_bn(self.identity)# 填充1x1和恒等映射到3x3kernel1x1_padded = self._pad_1x1_to_3x3(kernel1x1)kernel_id_padded = self._pad_1x1_to_3x3(kernel_id)# 合并权重和偏置final_kernel = kernel3x3 + kernel1x1_padded + kernel_id_paddedfinal_bias = bias3x3 + bias1x1 + bias_id# 构建合并后的卷积merged_conv = nn.Conv2d(self.conv3x3.in_channels,self.conv3x3.out_channels,kernel_size=3,padding=1,bias=True)merged_conv.weight.data = final_kernelmerged_conv.bias.data = final_biasreturn merged_convdef _fuse_conv_bn(self, conv, bn):"""融合卷积和BN的权重与偏置"""kernel = conv.weightrunning_mean = bn.running_meanrunning_var = bn.running_vargamma = bn.weightbeta = bn.biaseps = bn.epsstd = (running_var + eps).sqrt()scale_factor = gamma / std# 调整权重和偏置fused_kernel = kernel * scale_factor.reshape(-1, 1, 1, 1)fused_bias = beta - running_mean * scale_factorreturn fused_kernel, fused_biasdef _fuse_identity_bn(self, bn):"""融合恒等映射的BN(视为1x1单位矩阵卷积)"""identity_kernel = torch.eye(bn.num_features, dtype=bn.weight.dtype, device=bn.weight.device)identity_kernel = identity_kernel.view(bn.num_features, bn.num_features, 1, 1)# 处理BN参数scale_factor = bn.weight / (bn.running_var + bn.eps).sqrt()fused_kernel = identity_kernel * scale_factor.view(-1, 1, 1, 1)fused_bias = bn.bias - bn.running_mean * scale_factorreturn fused_kernel, fused_biasdef _pad_1x1_to_3x3(self, kernel):"""将1x1卷积核填充为3x3,中心为原权重,其余为0"""if kernel.size(-1) == 1:padded = torch.zeros(kernel.size(0), kernel.size(1), 3, 3, device=kernel.device)padded[:, :, 1, 1] = kernel.squeeze()return paddedreturn kernel# ----------------------
# 严格测试用例
# ----------------------
def test_repvgg():torch.manual_seed(42)# 输入数据(确保数值范围合理)x = torch.randn(2, 3, 4, 4)   # 小方差数据,加速BN收敛# 初始化模块block = RepVGGBlock(3, 3)# 训练模式:更新BN统计量block.train()for _ in range(100):  # 强制更新BN参数y = block(x)y.sum().backward()  # 伪反向传播# 推理模式:合并权重block.eval()with torch.no_grad():# 原始输出orig_out = block(x)# 合并后的卷积merged_conv = block.reparameterize()merged_out = merged_conv(x)# 打印关键数据print("原始输出均值:", orig_out.mean().item())print("合并输出均值:", merged_out.mean().item())print("最大差值:", torch.abs(orig_out - merged_out).max().item())# 验证一致性(容差1e-6)assert torch.allclose(orig_out, merged_out, atol=1e-6), f"合并验证失败!最大差值:{torch.abs(orig_out - merged_out).max().item()}"print("✅ 测试通过!")test_repvgg()

在这里插入图片描述

总结

 下一篇将介绍QARepVGG Block,来解决RepVGG Block量化int8掉点问题,敬请期待。

http://www.dtcms.com/wzjs/383818.html

相关文章:

  • 网站查询功能是用什么程序做的百度广告优化
  • 做婚介网站可行性报告网络热词2023
  • 东莞常平属于哪个区seo作弊
  • 怎样组建企业网站怎么发帖子做推广
  • 网站小程序怎么做关键词在线试听
  • 宠物网站模板下载网络培训总结
  • 建设银行u盾用网站打不开上海网络推广联盟
  • 网站ui设计要点百度一下百度搜索官网
  • 安徽省城乡和住房建设厅网站上海seo推广整站
  • 西安网站开发高端网站开发广州权威发布
  • 公司网站开发费用大概多少独立网站
  • 公司官方网站开发今日油价最新
  • 福州做网站互联网公司排名网站域名查询网
  • dw做网站怎样插入表单关键词代发排名首页
  • behance是什么网站苏州网站建设书生
  • 凡科建站代理登录入口抖音关键词排名查询
  • 网站怎么产品做推广营销的方法和技巧
  • 国内用JSP做的网站有哪些我为什么不建议年轻人做运营
  • 房产律师网站模板seo怎么做关键词排名
  • 建立主题网站的一般步骤企业营销策划有限公司
  • 网站开发分销系统海外黄冈网站推广
  • 国内做五金加工的订单网站seo优化网站的注意事项
  • 猪八戒网做网站被骗近期出现的病毒叫什么
  • 中国纪检监察报手机版免费测试seo
  • 武汉公司网站建设app开发公司哪家好
  • 网站功能框架今日头条新闻消息
  • 苏州园区网站建设公司上海今天刚刚发生的新闻
  • 如何在已建设好的网站做修改网站优化推广方法
  • 电商网站的费用怎么做帐软文广告平台
  • 道滘仿做网站百度指数怎么用