当前位置: 首页 > wzjs >正文

双语网站用什么程序做长沙网络推广外包

双语网站用什么程序做,长沙网络推广外包,长治电子商务网站建设,wordpress 手机写文本文我们通过搭建卷积神经网络模型,实现手写数字识别。 pytorch中提供了手写数字的数据集 ,我们可以直接从pytorch中下载 MNIST中包含70000张手写数字图像:60000张用于训练,10000张用于测试 图像是灰度的,28x28像素 …

本文我们通过搭建卷积神经网络模型,实现手写数字识别。

pytorch中提供了手写数字的数据集 ,我们可以直接从pytorch中下载

MNIST中包含70000张手写数字图像:60000张用于训练,10000张用于测试

图像是灰度的,28x28像素

首先,下载数据集

import torch
from torchvision import datasets #封装与图像相关的模型,数据集
from torchvision.transforms import ToTensor # #数据转换,张量,将其他类型的数据转换为tensor张量training_data=datasets.MNIST(root='data',#表示下载的手写数字到哪个路径train=True,#读取下载后数据中的训练集download=True,#如果之前已经下载过,就不用再下载transform=ToTensor(),#张量,图片不能直接传入神经网络模型
)test_data=datasets.MNIST(root='data',train=False,download=True,transform=ToTensor(),
)

打包数据

from torch.utils.data import DataLoader train_dataloader=DataLoader(training_data,batch_size=64)
test_dataloader=DataLoader(test_data,batch_size=64)

判断当前设备是否支持GPU

device='cuda' if torch.cuda.is_available() else 'mps' if torch.backends.mps.is_available() else 'cpu'
print(f'using {device} device')

构建卷积神经网络模型

from torch import nn #导入神经网络模块class CNN(nn.Module):def __init__(self):#初始化类super(CNN,self).__init__()#初始化父类self.conv1=nn.Sequential(# 将多个层(如卷积、激活函数、池化等)按顺序打包,输入数据会​​依次通过这些层​​,无需手动编写每一层的传递逻辑。nn.Conv2d(#2D 卷积层,提取空间特征。in_channels=1,#输入通道数out_channels=16,#输出通道数kernel_size=3,#卷积核大小stride=1,#步长padding=1,#填充),nn.ReLU(),#激活函数,引入非线性变换,使得神经网络能够学习复杂的非线性变换,增强表达能力nn.MaxPool2d(kernel_size=2)# 2x2最大池化(尺寸减半))self.conv2=nn.Sequential(nn.Conv2d(16,32,3,1,1),nn.ReLU(),# nn.Conv2d(32,32,3,1,1),# nn.ReLU(),nn.MaxPool2d(2),)self.conv3=nn.Sequential(nn.Conv2d(32,64,3,1,1))self.out=nn.Linear(64*7*7,10)def forward(self,x):#前向传播x=self.conv1(x)x=self.conv2(x)x=self.conv3(x)x=x.view(x.size(0),-1)# 展平为向量(保留batch_size,合并其他维度)output=self.out(x)  # 全连接层输出return output

返回的output结果大致如图所示

 模型传入GPU

model=CNN().to(device)
print(model)

  损失函数,衡量的是​​模型预测的概率分布​​与​​真实的类别分布​​之间的差异。

loss_fn=nn.CrossEntropyLoss()

  优化器,用于在训练神经网络时更新模型参数,目的是​​在神经网络训练过程中,自动调整模型的参数(权重和偏置),以最小化损失函数​​。

optimizer=torch.optim.Adam(model.parameters(),lr=0.01)

 模型训练

def train(dataloader,model,loss_fn,optimizer):model.train()batch_size_num=1for X,y in dataloader:X,y=X.to(device),y.to(device)pred=model.forward(X)loss=loss_fn(pred,y)# Backpropagation 进来一个batch的数据,计算一次梯度,更新一次网络optimizer.zero_grad()               #梯度值清零loss.backward()                     #反向传播计算得到每个参数的梯度值optimizer.step()                    #根据梯度更新网络参数loss_value=loss.item()if batch_size_num%100==0:print(f'loss:{loss_value:>7f}[number:{batch_size_num}]')batch_size_num+=1epochs=10for i in range(epochs):print(f'第{i}次训练')train(train_dataloader, model, loss_fn, optimizer)

模型测试

def test(dataloader,model,loss_fn):size = len(dataloader.dataset)# 测试集总样本数num_batches = len(dataloader)# 测试集总批次数model.eval()#进入到模型的测试状态,所有的卷积核权重被设为只读模式test_loss, correct = 0, 0# 初始化累计损失和正确预测数#禁用梯度计算with torch.no_grad():#一个上下文管理器,关闭梯度计算。当你确认不会调用Tensor.backward()的时候。这可以减少计算所用内存消耗。for X,y in dataloader:X,y=X.to(device),y.to(device)pred=model.forward(X)test_loss+=loss_fn(pred,y).item()correct+=(pred.argmax(1)==y).type(torch.float).sum().item()a=(pred.argmax(1)==y)b=(pred.argmax(1)==y).type(torch.float)test_loss/=num_batchescorrect/=sizeprint(f'Test result: \n Accuracy:{(100*correct)}%,Avg loss:{test_loss}')test(test_dataloader,model,loss_fn)

得到结果如图所示

http://www.dtcms.com/wzjs/312421.html

相关文章:

  • 国内做网站比较好的公司外链生成
  • 网站图片漂浮代码如何做外贸网站的推广
  • wordpress 默认 私密迅速上排名网站优化
  • 用angular做的网站链接专业搜索引擎seo技术公司
  • 鲜花电子商务网站建设规划书百度网盘怎么找片
  • 企业为什么要管理seo培训班 有用吗
  • 公司的官方网站怎么做口碑营销的成功案例
  • 网站开发主要内容品牌营销做得好的品牌有哪些
  • 网站建设商标注册多少类目引擎网站
  • 免费人体做爰网站营业推广是什么意思
  • 做移动网站点击软件下载杭州seo公司排名
  • 自己给公司做网站难不难seo外链优化培训
  • 学做网站网下店拓客团队
  • 网站开发公司销售总监岗位要求今日国内重大新闻事件
  • 兰州网站建设与优化推广广告优化师前景怎样
  • 集团网站建设案例搜索引擎的工作原理是什么
  • 优秀学校网站设计河南关键词优化搜索
  • 写作兼职网站东莞好的网站国外站建设价格
  • 广州网站建设与网页设计十大经典广告营销案例
  • 苏州前几天网站建设哈尔滨最新今日头条新闻
  • 秦皇岛网站制作费用seo工作内容和薪资
  • 网站建设 维护nba录像回放
  • 机械加工网络接单seo入门教程网盘
  • 企业网站模板趋势免费推广平台哪些比较好
  • 南山的网站设计云建站模板
  • 杭州 手机网站建设北京网站seo服务
  • 网站分享到微信缩略图黑科技推广软件
  • 做最简单的网站谷歌广告推广网站
  • 平乡建设局网站沈阳关键词seo
  • 做电影网站大概要多少钱永久免费自助建站系统