当前位置: 首页 > wzjs >正文

嘉兴做网站的网页推广方案

嘉兴做网站的,网页推广方案,网络系统管理技能大赛linux,济宁做网站比较好的公司有哪些ResNet(残差网络)是深度学习中的经典模型,通过引入残差连接解决了深层网络训练中的梯度消失问题。本文将从残差块的定义开始,逐步实现一个ResNet模型,并在Fashion MNIST数据集上进行训练和测试。 1. 残差块&#xff08…

ResNet(残差网络)是深度学习中的经典模型,通过引入残差连接解决了深层网络训练中的梯度消失问题。本文将从残差块的定义开始,逐步实现一个ResNet模型,并在Fashion MNIST数据集上进行训练和测试。


1. 残差块(Residual Block)实现

残差块通过跳跃连接(Shortcut Connection)将输入直接传递到输出,缓解了深层网络的训练难题。以下是残差块的PyTorch实现:

import torch
from torch import nn
from torch.nn import functional as F
from d2l import torch as d2lclass Residual(nn.Module):def __init__(self, input_channels, num_channels, use_1x1conv=False, strides=1):super().__init__()self.conv1 = nn.Conv2d(input_channels, num_channels, kernel_size=3, padding=1, stride=strides)self.conv2 = nn.Conv2d(num_channels, num_channels, kernel_size=3, padding=1)self.bn1 = nn.BatchNorm2d(num_channels)self.bn2 = nn.BatchNorm2d(num_channels)if use_1x1conv:self.conv3 = nn.Conv2d(input_channels, num_channels, kernel_size=1, stride=strides)else:self.conv3 = Noneself.relu = nn.ReLU(inplace=True)def forward(self, x):y = F.relu(self.bn1(self.conv1(x)))y = self.bn2(self.conv2(y))if self.conv3:x = self.conv3(x)y += xreturn F.relu(y)

代码解析

  • use_1x1conv:当输入和输出通道数不一致时,使用1x1卷积调整通道数。

  • strides:控制特征图下采样的步长。

  • 残差相加后再次使用ReLU激活,增强非线性表达能力。


2. 构建ResNet模型

ResNet由多个残差块堆叠而成,以下代码构建了一个简化版ResNet-18:

# 初始卷积层
b1 = nn.Sequential(nn.Conv2d(1, 64, kernel_size=7, stride=2, padding=3),nn.BatchNorm2d(64),nn.ReLU(),nn.MaxPool2d(kernel_size=3, stride=2, padding=1)
)def resnet_block(input_channels, num_channels, num_residuals, first_block=False):blk = []for i in range(num_residuals):if i == 0 and not first_block:  # 第一个块需下采样blk.append(Residual(input_channels, num_channels, use_1x1conv=True, strides=2))else:blk.append(Residual(num_channels, num_channels))return blk# 堆叠残差块
b2 = nn.Sequential(*resnet_block(64, 64, 2, first_block=True))
b3 = nn.Sequential(*resnet_block(64, 128, 2))
b4 = nn.Sequential(*resnet_block(128, 256, 2))
b5 = nn.Sequential(*resnet_block(256, 512, 2))# 完整网络结构
net = nn.Sequential(b1, b2, b3, b4, b5,nn.AdaptiveAvgPool2d((1, 1)),nn.Flatten(),nn.Linear(512, 10)
)

模型结构说明

  • AdaptiveAvgPool2d:自适应平均池化,将特征图尺寸统一为1x1。

  • Flatten:展平特征用于全连接层分类。


3. 数据加载与预处理

使用Fashion MNIST数据集,批量大小为256:

train_data, test_data = d2l.load_data_fashion_mnist(batch_size=256)

4. 模型训练与测试

设置训练参数:10个epoch,学习率0.05,并使用GPU加速:

d2l.train_ch6(net, train_data, test_data, num_epochs=10, lr=0.05, device=d2l.try_gpu())

训练结果

loss 0.124, train acc 0.952, test acc 0.860
4921.4 examples/sec on cuda:0

5. 结果可视化

训练过程中损失和准确率变化如下图所示:

分析

  • 训练准确率(紫色虚线)迅速上升并稳定在95%以上。

  • 测试准确率(绿色点线)达到86%,表明模型具有良好的泛化能力。

  • 损失值(蓝色实线)持续下降,未出现过拟合。


6. 完整代码

整合所有代码片段(需安装d2l库):

# 残差块定义、模型构建、训练代码见上文

7. 总结

本文实现了ResNet的核心组件——残差块,并构建了一个简化版ResNet模型。通过实验验证,模型在Fashion MNIST数据集上表现良好。读者可尝试调整网络深度或超参数以进一步提升性能。

改进方向

  • 增加残差块数量构建更深的ResNet(如ResNet-34/50)。

  • 使用数据增强策略提升泛化能力。

  • 尝试不同的优化器和学习率调度策略。


注意事项

  • 确保已安装PyTorch和d2l库。

  • GPU环境可显著加速训练,若使用CPU需调整批量大小。


希望本文能帮助您理解ResNet的实现细节!如有疑问,欢迎在评论区留言讨论。

http://www.dtcms.com/wzjs/118385.html

相关文章:

  • 打造品牌建设3分钟搞定网站seo优化外链建设
  • 网站建设技术方面论文新品怎么推广效果最好
  • 深圳网站推广排名公司网站建设服务
  • 详情页设计多少钱seo投放
  • 天元建设集团有限公司破产济南优化网页
  • 周口建设网站的成都网站制作费用
  • 51自学网官网入口河北网站seo外包
  • 网站开发和网站维护有区别吗权重查询入口
  • wordpress响应式模板工业用seo顾问收费
  • 乌鲁木齐做网站公司哪家好网站推广沈阳
  • 深圳市作网站的公司广州网站排名优化公司
  • 个人网站链接怎么做seo策略有哪些
  • 安徽省建设银行网站百度权重划分等级
  • 长沙商业网站建设引流黑科技app
  • 任县网站建设多少钱友情链接大全
  • 如何建设本地网站无限制访问国外的浏览器
  • 淮安做网站.卓越凯欣熊猫关键词工具官网
  • 深圳购物网站建设快速网站排名提升工具
  • 做印刷在哪个网站接单好好网站优化seo
  • wordpress 取消侧边栏成都网站排名生客seo怎么样
  • 如何在百度开个网站运营培训
  • wordpress页首文件seo手机排名软件
  • 在中国做外国网站怎么收钱百度营销推广登录平台
  • 深圳网站备案查询优化大师windows
  • 小程序开发网站谷歌怎么投放广告
  • 做网站niche阿里云盘资源搜索引擎
  • 太原网站建设小程序网址域名大全
  • 做化妆品代理在那些网站比较多网站推广哪个好
  • 做的网站程序防止倒卖网络seo啥意思
  • 化工材料 技术支持 东莞网站建设百度seo入驻