当前位置: 首页 > wzjs >正文

齐齐哈尔住房和城乡建设局网站爱站查询

齐齐哈尔住房和城乡建设局网站,爱站查询,独立网店,电信200m宽带做网站卡吗文章目录 前言1、Block结构2、Block代码实现总结 前言 在上一篇博文convbn算子融合中,介绍了convbn算子融合。本文将要介绍的RepVGG(Re-parameterized Convolutional Neural Network)是一种通过重新参数化技术将复杂的神经网络结构转换为简单…

文章目录

  • 前言
  • 1、Block结构
  • 2、Block代码实现
  • 总结


前言

 在上一篇博文conv+bn算子融合中,介绍了conv+bn算子融合。本文将要介绍的RepVGG(Re-parameterized Convolutional Neural Network)是一种通过重新参数化技术将复杂的神经网络结构转换为简单的卷积层的方法。这种方法可以在训练时使用复杂的多分支结构,在推理时将其简化为单一的卷积层,从而显著提高推理速度。

1、Block结构

 RepVGGBlock 是 RepVGG 网络的基本构建单元,它结合了 3x3 卷积、1x1 卷积和恒等映射,并通过了非共享权重的Batch Normalization (BN) 层来优化性能。具体来说:
 3x3 卷积:用于捕捉局部特征。
 1x1 卷积:用于降维和升维操作,减少计算量。
 恒等映射:确保输入和输出通道数相同。

2、Block代码实现

 本节提供了一个完整的Block单元测试,来模拟RepVGG的训练和测试(算子合并后),计算结果相等。读者可一键运行。

import torch
import torch.nn as nnclass RepVGGBlock(nn.Module):def __init__(self, in_channels, out_channels):super().__init__()assert in_channels == out_channels, "输入输出通道必须相同!"# 3x3卷积 + 独立BNself.conv3x3 = nn.Conv2d(in_channels, out_channels, kernel_size=3, padding=1, bias=False)self.bn3x3 = nn.BatchNorm2d(out_channels)# 1x1卷积 + 独立BNself.conv1x1 = nn.Conv2d(in_channels, out_channels, kernel_size=1, bias=False)self.bn1x1 = nn.BatchNorm2d(out_channels)# 恒等映射 + 独立BNself.identity = nn.BatchNorm2d(in_channels)# 初始化权重self._init_weights()def _init_weights(self):# 3x3卷积:Kaiming初始化nn.init.kaiming_normal_(self.conv3x3.weight, mode='fan_out', nonlinearity='relu')# 1x1卷积:初始化为零(等效于无操作,与恒等映射互补)nn.init.zeros_(self.conv1x1.weight)# 恒等映射:BN的gamma初始化为1,beta为0nn.init.ones_(self.identity.weight)nn.init.zeros_(self.identity.bias)def forward(self, x):# 训练时三支路独立计算branch3x3 = self.bn3x3(self.conv3x3(x))branch1x1 = self.bn1x1(self.conv1x1(x))branch_id = self.identity(x)return branch3x3 + branch1x1 + branch_iddef reparameterize(self):# 分别融合各分支的卷积和BNkernel3x3, bias3x3 = self._fuse_conv_bn(self.conv3x3, self.bn3x3)kernel1x1, bias1x1 = self._fuse_conv_bn(self.conv1x1, self.bn1x1)kernel_id, bias_id = self._fuse_identity_bn(self.identity)# 填充1x1和恒等映射到3x3kernel1x1_padded = self._pad_1x1_to_3x3(kernel1x1)kernel_id_padded = self._pad_1x1_to_3x3(kernel_id)# 合并权重和偏置final_kernel = kernel3x3 + kernel1x1_padded + kernel_id_paddedfinal_bias = bias3x3 + bias1x1 + bias_id# 构建合并后的卷积merged_conv = nn.Conv2d(self.conv3x3.in_channels,self.conv3x3.out_channels,kernel_size=3,padding=1,bias=True)merged_conv.weight.data = final_kernelmerged_conv.bias.data = final_biasreturn merged_convdef _fuse_conv_bn(self, conv, bn):"""融合卷积和BN的权重与偏置"""kernel = conv.weightrunning_mean = bn.running_meanrunning_var = bn.running_vargamma = bn.weightbeta = bn.biaseps = bn.epsstd = (running_var + eps).sqrt()scale_factor = gamma / std# 调整权重和偏置fused_kernel = kernel * scale_factor.reshape(-1, 1, 1, 1)fused_bias = beta - running_mean * scale_factorreturn fused_kernel, fused_biasdef _fuse_identity_bn(self, bn):"""融合恒等映射的BN(视为1x1单位矩阵卷积)"""identity_kernel = torch.eye(bn.num_features, dtype=bn.weight.dtype, device=bn.weight.device)identity_kernel = identity_kernel.view(bn.num_features, bn.num_features, 1, 1)# 处理BN参数scale_factor = bn.weight / (bn.running_var + bn.eps).sqrt()fused_kernel = identity_kernel * scale_factor.view(-1, 1, 1, 1)fused_bias = bn.bias - bn.running_mean * scale_factorreturn fused_kernel, fused_biasdef _pad_1x1_to_3x3(self, kernel):"""将1x1卷积核填充为3x3,中心为原权重,其余为0"""if kernel.size(-1) == 1:padded = torch.zeros(kernel.size(0), kernel.size(1), 3, 3, device=kernel.device)padded[:, :, 1, 1] = kernel.squeeze()return paddedreturn kernel# ----------------------
# 严格测试用例
# ----------------------
def test_repvgg():torch.manual_seed(42)# 输入数据(确保数值范围合理)x = torch.randn(2, 3, 4, 4)   # 小方差数据,加速BN收敛# 初始化模块block = RepVGGBlock(3, 3)# 训练模式:更新BN统计量block.train()for _ in range(100):  # 强制更新BN参数y = block(x)y.sum().backward()  # 伪反向传播# 推理模式:合并权重block.eval()with torch.no_grad():# 原始输出orig_out = block(x)# 合并后的卷积merged_conv = block.reparameterize()merged_out = merged_conv(x)# 打印关键数据print("原始输出均值:", orig_out.mean().item())print("合并输出均值:", merged_out.mean().item())print("最大差值:", torch.abs(orig_out - merged_out).max().item())# 验证一致性(容差1e-6)assert torch.allclose(orig_out, merged_out, atol=1e-6), f"合并验证失败!最大差值:{torch.abs(orig_out - merged_out).max().item()}"print("✅ 测试通过!")test_repvgg()

在这里插入图片描述

总结

 下一篇将介绍QARepVGG Block,来解决RepVGG Block量化int8掉点问题,敬请期待。

http://www.dtcms.com/wzjs/335609.html

相关文章:

  • 做pc端大型网站+前端用超级软文网
  • 宝安中心医院是三甲医院吗网站seo案例
  • 站长论坛每日新闻最新消息
  • jsp网站连接数据库图片外链
  • 广东品牌网站建设报价营销网站制作公司
  • 湛江个人网站建设郑州百度推广代理公司
  • 做网站一般有几个关键词小红书信息流广告
  • 营销型网站的定位西安seo霸屏
  • wordpress中dw是什么西安网络优化哪家好
  • 网站策划中规划预测怎们做seoul是啥意思
  • 牡丹江seo网站推广蜘蛛屯优化排名电子商务营销的概念
  • erp系统有哪些软件seo监控系统
  • 手工蛋糕网站开发报告宁波免费建站seo排名
  • 关掉自己做的网站沈阳seo技术
  • pageadmin自助建站系统seo教程之关键词是什么
  • 哪些网站做免费送东西的广告6网站排名优化方案
  • iis能建设网站吗seo软文推广
  • 自己做网站后台广告平台网站有哪些
  • 织梦网站备份几种方法色盲测试图
  • wordpress装饰公司宁波seo网站排名优化公司
  • cname解析对网站影响百度推广费用报价单
  • 高端网站建设企业网站建站百度seo排名如何提升
  • 用什么来网站开发好如何联系百度推广
  • 漳州博大网站建设洗发水营销推广软文800字
  • b2b推广网站有哪些外贸seo软文发布平台
  • vscode创建网页seo网络推广优化
  • 汝城网站建设公司网页怎么做
  • 做教育网站宣传策略网站推广多少钱一年
  • 上海哪家装修公司好朝阳seo搜索引擎
  • 做网站哪个公司最好免费网站服务器