当前位置: 首页 > wzjs >正文

下wordpressseo推广哪家好

下wordpress,seo推广哪家好,营销型网站建设 课程,烟台市做网站找哪家好知识点回顾: 预训练的概念常见的分类预训练模型图像预训练模型的发展史预训练的策略预训练代码实战:resnet18 作业: 尝试在cifar10对比如下其他的预训练模型,观察差异,尽可能和他人选择的不同尝试通过ctrl进入resnet的…

知识点回顾:

  1. 预训练的概念
  2. 常见的分类预训练模型
  3. 图像预训练模型的发展史
  4. 预训练的策略
  5. 预训练代码实战:resnet18

作业:

  1. 尝试在cifar10对比如下其他的预训练模型,观察差异,尽可能和他人选择的不同
  2. 尝试通过ctrl进入resnet的内部,观察残差究竟是什么 

一、在 CIFAR10 上对比如下其他的预训练模型

可以选择不同的预训练模型,如 VGG16、Inception V3 等,对比它们在 CIFAR10 数据集上的训练时间、准确率等指标。以下是使用 VGG16 的示例代码:

import torch
import torch.nn as nn
import torch.optim as optim
import torchvision
import torchvision.transforms as transforms
from torchvision.models import vgg16# 数据预处理
transform = transforms.Compose([transforms.Resize((224, 224)),  # Inception 和 VGG 要求输入图像大小为 224x224transforms.ToTensor(),transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))
])# 加载 CIFAR10 数据集
trainset = torchvision.datasets.CIFAR10(root='./data', train=True,download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,shuffle=True, num_workers=2)testset = torchvision.datasets.CIFAR10(root='./data', train=False,download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,shuffle=False, num_workers=2)# 加载预训练的 VGG16 模型
model = vgg16(pretrained=True)
num_ftrs = model.classifier[6].in_features
model.classifier[6] = nn.Linear(num_ftrs, 10)  # 修改最后一层全连接层以适应 CIFAR10 的 10 个类别# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.001, momentum=0.9)# 训练模型
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model.to(device)for epoch in range(2):  # 训练 2 个 epochrunning_loss = 0.0for i, data in enumerate(trainloader, 0):inputs, labels = data[0].to(device), data[1].to(device)optimizer.zero_grad()outputs = model(inputs)loss = criterion(outputs, labels)loss.backward()optimizer.step()running_loss += loss.item()if i % 2000 == 1999:    # 每 2000 个 mini-batches 打印一次print(f'[{epoch + 1}, {i + 1:5d}] loss: {running_loss / 2000:.3f}')running_loss = 0.0print('Finished Training')

 二、尝试通过 ctrl 进入 ResNet 的内部,观察残差究竟是什么

在 PyTorch 中,如果你使用的是 PyCharm 等 IDE,可以按住 Ctrl 键并点击 resnet18 函数,进入 torchvision.models.resnet 模块。在该模块中,可以找到 BasicBlock 类,它实现了 ResNet 的残差块。

class BasicBlock(nn.Module):expansion = 1def __init__(self, inplanes, planes, stride=1, downsample=None, groups=1,base_width=64, dilation=1, norm_layer=None):super(BasicBlock, self).__init__()if norm_layer is None:norm_layer = nn.BatchNorm2dif groups != 1 or base_width != 64:raise ValueError('BasicBlock only supports groups=1 and base_width=64')if dilation > 1:raise NotImplementedError("Dilation > 1 not supported in BasicBlock")# Both self.conv1 and self.downsample layers downsample the input when stride != 1self.conv1 = conv3x3(inplanes, planes, stride)self.bn1 = norm_layer(planes)self.relu = nn.ReLU(inplace=True)self.conv2 = conv3x3(planes, planes)self.bn2 = norm_layer(planes)self.downsample = downsampleself.stride = stridedef forward(self, x):identity = xout = self.conv1(x)out = self.bn1(out)out = self.relu(out)out = self.conv2(out)out = self.bn2(out)if self.downsample is not None:identity = self.downsample(x)out += identity  # 这一行实现了残差连接out = self.relu(out)return out

在 forward 方法中, out += identity 这一行实现了残差连接。 identity 是输入的原始特征图, out 是经过两层卷积和批量归一化处理后的特征图,将它们相加后再通过 ReLU 激活函数,使得模型可以学习到输入和输出之间的残差信息。

http://www.dtcms.com/wzjs/443694.html

相关文章:

  • 有做赛车网站的吗汕头seo推广
  • 网站维护教程自媒体平台排名前十
  • 网站公司seo国产长尾关键词拘挖掘
  • 怎么样免费做网站seo网站优化公司
  • 做网站后期维护工资贴吧镇江网站制作公司
  • 建立主题网站的知识点软文广告经典案例短的
  • 深圳网站开发云搜索系统
  • 网站建设 珠海 java百度一下首页网页手机版
  • 网站内容专题怎么做链接平台
  • 北京工程网站建设宝鸡seo外包公司
  • 厦门住建局长沙seo优化报价
  • 荔湾区做网站公司新手运营从哪开始学
  • 域名空间网站贵港网站seo
  • asp手机网站源码软文发布网站
  • 网站注册怎么做百度收录量
  • 什么网站做电器出租seo关键词优化软件app
  • 免费b站推广网站动漫微信公众号运营
  • 做网站需要哪种工程师长沙本地推广
  • wordpress term group百度竞价和优化的区别
  • 网站关键词优化到首页后怎么做携程: 2023年旅行搜索上涨超900%
  • 网站分析表怎么做的app线下推广怎么做
  • 美食网站开发的目的和意义国家免费培训网站
  • 招聘网站开发工程师百度网讯科技有限公司官网
  • 临沂医院网站建设长春网站建设公司
  • 网站开发仓库管理系统需求分析宁波seo教程推广平台
  • 网页搜索代码seo是什么化学名称
  • 舟山网站设计公司一键建站
  • 记事本做网站背景广州seo关键词
  • 东莞网站优化方案优化大师的优化项目有哪7个
  • 海南seo网站排名优化快速