当前位置: 首页 > news >正文

【PyTorch】图像二分类-部署

在独立于训练脚本的新脚本中部署用于推理的模型,需要构造一个模型类的对象,并将权重加载到模型中。操作流程为:定义模型--加载权重--在验证和测试数据集上部署模型。

import torch.nn as nn
import numpy as np
# 设置随机种子
np.random.seed(0)
import torch.nn as nn
import torch.nn.functional as F# 定义一个函数,用于计算卷积层的输出形状
def findConv2dOutShape(H_in,W_in,conv,pool=2):# 获取卷积核的大小kernel_size=conv.kernel_size# 获取卷积的步长stride=conv.stride# 获取卷积的填充padding=conv.padding# 获取卷积的扩张dilation=conv.dilation# 计算卷积后的高度H_out=np.floor((H_in+2*padding[0]-dilation[0]*(kernel_size[0]-1)-1)/stride[0]+1)# 计算卷积后的宽度W_out=np.floor((W_in+2*padding[1]-dilation[1]*(kernel_size[1]-1)-1)/stride[1]+1)# 如果pool不为空if pool:# 将H_out除以poolH_out/=poolW_out/=pool# 返回H_out和W_out的整数形式return int(H_out),int(W_out)class Net(nn.Module):def __init__(self, params):super(Net, self).__init__()# 获取输入形状C_in,H_in,W_in=params["input_shape"]# 获取初始滤波器数量init_f=params["initial_filters"] # 获取第一个全连接层神经元数量num_fc1=params["num_fc1"]  # 获取类别数量num_classes=params["num_classes"] # 获取模型的dropout率,是0到1间的浮点数# Dropout是一种正则化技术,随机关闭部分神经元(输出设为0),防止过拟合,提高泛化能力self.dropout_rate=params["dropout_rate"] # 定义第一个卷积层self.conv1 = nn.Conv2d(C_in, init_f, kernel_size=3)# 计算第一个卷积层的输出形状h,w=findConv2dOutShape(H_in,W_in,self.conv1)self.conv2 = nn.Conv2d(init_f, 2*init_f, kernel_size=3)h,w=findConv2dOutShape(h,w,self.conv2)self.conv3 = nn.Conv2d(2*init_f, 4*init_f, kernel_size=3)h,w=findConv2dOutShape(h,w,self.conv3)self.conv4 = nn.Conv2d(4*init_f, 8*init_f, kernel_size=3)h,w=findConv2dOutShape(h,w,self.conv4)# 计算全连接层的输入形状self.num_flatten=h*w*8*init_f# 定义第一个全连接层self.fc1 = nn.Linear(self.num_flatten, num_fc1)self.fc2 = nn.Linear(num_fc1, num_classes)# 定义前向传播函数,接收输入xdef forward(self, x):# 第一个卷积层x = F.relu(self.conv1(x))# 第一个池化层x = F.max_pool2d(x, 2, 2)x = F.relu(self.conv2(x))x = F.max_pool2d(x, 2, 2)x = F.relu(self.conv3(x))x = F.max_pool2d(x, 2, 2)x = F.relu(self.conv4(x))x = F.max_pool2d(x, 2, 2)# 将卷积层的输出展平x = x.view(-1, self.num_flatten)# 第一个全连接层x = F.relu(self.fc1(x))# Dropout层x=F.dropout(x, self.dropout_rate)# 第二个全连接层x = self.fc2(x)# 返回输入x应用对数软最大变换后的输出# log-softmax对数软最大值函数,常用于计算交叉熵损失函数(cross-entropy loss),因为交叉熵损失函数需要计算概率的对数。# dim参数指定了在哪个维度上应用log-softmax。例如,如果dim=1,则对每一行应用log-softmax。return F.log_softmax(x, dim=1)# 定义模型参数
params_model={# 输入形状"input_shape": (3,96,96),# 初始过滤器数量"initial_filters": 8, # 全连接层1的神经元数量"num_fc1": 100,# Dropout率"dropout_rate": 0.25,# 类别数量"num_classes": 2,
}# 创建一个CNN模型,参数为params_model
cnn_model = Net(params_model)import torch
# 权重文件路径
path2weights="./models/weights.pt"# 加载权重文件
cnn_model.load_state_dict(torch.load(path2weights))# 进入评估模式
cnn_model.eval()

# 移动模型至cuda设备
if torch.cuda.is_available():device = torch.device("cuda")cnn_model=cnn_model.to(device) 
import time # 定义一个函数,用于部署模型
def deploy_model(model,dataset,device, num_classes=2,sanity_check=False):# num_classes:类别数,默认为2# sanity_check:是否进行完整性检查,默认为Falsepass# 获取数据集长度len_data=len(dataset)# 初始化输出张量y_out=torch.zeros(len_data,num_classes)# 初始化真实标签张量y_gt=np.zeros((len_data),dtype="uint8")# 将模型移动到指定设备model=model.to(device)# 存储每次推理的时间elapsed_times=[]# 在不计算梯度的情况下执行以下代码with torch.no_grad():for i in range(len_data):# 获取数据集中的一个样本x,y=dataset[i]# 将真实标签存储到张量中y_gt[i]=y# 记录开始时间start=time.time()    # 进行推理y_out[i]=model(x.unsqueeze(0).to(device))# 计算推理时间elapsed=time.time()-start# 将推理时间存储到列表中elapsed_times.append(elapsed)# 如果进行完整性检查,则只进行一次推理if sanity_check is True:break# 计算平均推理时间inference_time=np.mean(elapsed_times)*1000# 打印平均推理时间print("average inference time per image on %s: %.2f ms " %(device,inference_time))# 返回推理结果和真实标签return y_out.numpy(),y_gtimport torch
from PIL import Image
from torch.utils.data import Dataset
import pandas as pd
import torchvision.transforms as transforms
import os# 设置随机种子,使得每次运行代码时生成的随机数相同
torch.manual_seed(0)class histoCancerDataset(Dataset):def __init__(self, data_dir, transform,data_type="train"):      # 获取数据目录path2data=os.path.join(data_dir,data_type)# 获取数据目录下的所有文件名self.filenames = os.listdir(path2data)# 获取数据目录下的所有文件的完整路径self.full_filenames = [os.path.join(path2data, f) for f in self.filenames]# 获取标签文件名csv_filename=data_type+"_labels.csv"# 获取标签文件的完整路径path2csvLabels=os.path.join(data_dir,csv_filename)# 读取标签文件labels_df=pd.read_csv(path2csvLabels)# 将标签文件的索引设置为文件名labels_df.set_index("id", inplace=True)# 获取每个文件的标签self.labels = [labels_df.loc[filename[:-4]].values[0] for filename in self.filenames]# 获取数据转换函数self.transform = transformdef __len__(self):# 返回数据集的长度return len(self.full_filenames)def __getitem__(self, idx):# 根据索引获取图像image = Image.open(self.full_filenames[idx])  # 对图像进行转换image = self.transform(image)# 返回图像和标签return image, self.labels[idx]import torchvision.transforms as transforms
# 创建一个数据转换器,将数据转换为张量
data_transformer = transforms.Compose([transforms.ToTensor()])data_dir = "./data/"
# 传入数据目录、数据转换器和数据集类型
histo_dataset = histoCancerDataset(data_dir, data_transformer, "train")
# 打印数据集的长度
print(len(histo_dataset))

from torch.utils.data import random_split# 获取数据集的长度
len_histo=len(histo_dataset)
# 训练集取数据集的80%
len_train=int(0.8*len_histo)
# 验证集取数据集的20%
len_val=len_histo-len_train# 将数据集随机分割为训练集和验证集
train_ds,val_ds=random_split(histo_dataset,[len_train,len_val])# 打印训练集和验证集的长度
print("train dataset length:", len(train_ds))
print("validation dataset length:", len(val_ds))

 

# 部署模型 
y_out,y_gt=deploy_model(cnn_model,val_ds,device=device,sanity_check=False)
# 打印输出和真实值的形状
print(y_out.shape,y_gt.shape)

使用预测输出计算模型在验证数据集上的精度

from sklearn.metrics import accuracy_score# 获取预测
y_pred = np.argmax(y_out,axis=1)
print(y_pred.shape,y_gt.shape)# 计算精度 
acc=accuracy_score(y_pred,y_gt)
print("accuracy: %.2f" %acc)

 

# 部署在CPU上
device_cpu = torch.device("cpu")
y_out,y_gt=deploy_model(cnn_model,val_ds,device=device_cpu,sanity_check=False)
print(y_out.shape,y_gt.shape)

复制data文件夹中的sample_submission.csv文件并命名为test_labels.csv

path2csv="./data/test_labels.csv"
# 读取csv文件,并存储到DataFrame中
labels_df=pd.read_csv(path2csv)
# 显示DataFrame的前几行
labels_df.head()

data_dir = "./data/"
# 创建测试数据集
histo_test = histoCancerDataset(data_dir, data_transformer,data_type="test")
# 打印测试数据集的长度
print(len(histo_test))

 

# 用测试数据集部署
y_test_out,_=deploy_model(cnn_model,histo_test, device, sanity_check=False)# 使用np.argmax函数对y_test_out进行操作,得到y_test_pred
y_test_pred=np.argmax(y_test_out,axis=1)# 打印y_test_pred的形状
print(y_test_pred.shape)

from torchvision import utilsimport numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
np.random.seed(0)# 定义一个函数,用于显示图像和标签
def show(img,y,color=True):# 将图像转换为numpy数组npimg = img.numpy()# 将图像的维度从(C,H,W)转换为(H,W,C)npimg_tr=np.transpose(npimg, (1,2,0))# 如果color为False,则将图像转换为灰度图像if color==False:npimg_tr=npimg_tr[:,:,0]plt.imshow(npimg_tr,interpolation='nearest',cmap="gray")else:# 否则,直接显示图像plt.imshow(npimg_tr,interpolation='nearest')# 显示图像的标签plt.title("label: "+str(y))# 定义一个网格大小
grid_size=4
# 随机选择grid_size个图像的索引
rnd_inds=np.random.randint(0,len(histo_test),grid_size)
print("image indices:",rnd_inds)# 从histo_test中获取grid_size个图像
x_grid_test=[histo_test[i][0] for i in range(grid_size)]
# 从y_test_pred中获取grid_size个标签
y_grid_test=[y_test_pred[i] for i in range(grid_size)]# 将grid_size个图像组合成一个网格
x_grid_test=utils.make_grid(x_grid_test, nrow=4, padding=2)
print(x_grid_test.shape)# 设置图像的大小
plt.rcParams['figure.figsize'] = (10.0, 5)
# 显示图像和标签
show(x_grid_test,y_grid_test)


文章转载自:

http://wp3KpXxU.gnghp.cn
http://aGPb2kqN.gnghp.cn
http://Eqee1EL0.gnghp.cn
http://jIVGr8KL.gnghp.cn
http://Jick5CfV.gnghp.cn
http://GT9tAAGG.gnghp.cn
http://Ykp54NPh.gnghp.cn
http://7nniPsSI.gnghp.cn
http://ZWnFMxK2.gnghp.cn
http://xZMsyaKp.gnghp.cn
http://Bq2ydZ4K.gnghp.cn
http://aqzHIQp9.gnghp.cn
http://by8J6G4Y.gnghp.cn
http://O1Hcx3Jv.gnghp.cn
http://AEWxUJrU.gnghp.cn
http://3yabeQmh.gnghp.cn
http://KaD1AQoF.gnghp.cn
http://yylxyZVu.gnghp.cn
http://pX5jiNyn.gnghp.cn
http://btPow8bv.gnghp.cn
http://5Tr3IL0l.gnghp.cn
http://hhoRYMkq.gnghp.cn
http://RvwPiYcQ.gnghp.cn
http://HOok3wIs.gnghp.cn
http://dCLW05lI.gnghp.cn
http://gDHi85se.gnghp.cn
http://0QUTxQkM.gnghp.cn
http://q9cndPZh.gnghp.cn
http://yH4RbCKQ.gnghp.cn
http://3l1cB6yk.gnghp.cn
http://www.dtcms.com/a/374085.html

相关文章:

  • 纵向循环缓慢滚动图片
  • 项目日记 -日志系统 -明确目标、规划模块并完成项目文档
  • 【C++上岸】C++常见面试题目--网络篇(第二十二期)
  • 数据治理系列(一):数据治理的整体框架与发展趋势
  • 【LeetCode 每日一题】1504. 统计全 1 子矩形
  • FastGPT源码解析 Agent知识库文本资料处理详解和代码分析
  • php 实现 导入excel 带图片导入
  • JP4-7-MyLesson后台前端(五)
  • 【系统分析师】第17章-关键技术:嵌入式系统分析与设计(核心总结)
  • Centos9安装rocketmq
  • Docker | 一种使用 docker-compose 命令将 YAML 定义的配置文件导入到 Docker 的方法
  • 编译器构造:模拟器,汇编与反汇编
  • 自由学习记录(96)
  • Cy5-Tyramide, Cyanine 5 Tyramide;1431148-26-3
  • JMeter接口测试全流程解析
  • ARM处理器的小常识
  • Go语言极速入门与精要指南从零到精通的系统化学习路径
  • RK3576 android14 usb_audio_policy_configuration.xml解析
  • 本地安装部署svn服务,并设置外网远程访问内网svn,含路由器转发和端口映射工具教程
  • idea2025构建springboot项目能运行的样例
  • 【底层机制】std::unordered_map 扩容机制
  • Cpp::STL—位图bitset的使用与模拟实现(39)
  • 链表 (C/C++)
  • WinEdt编译tex文件失败解决办法
  • C语言第12讲
  • commons-email
  • (堆)347. 前 K 个高频元素
  • GitHub Release Monitor部署指南:实时追踪开源项目更新与自动通知
  • 重新定义音频编程:SoundFlow如何以模块化设计革新.NET音频开发生态
  • SQL 注入与防御-第八章:代码层防御