当前位置: 首页 > news >正文

基于深度学习的图像分类:使用ResNet实现高效分类

最近研学过程中发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家。点击链接跳转到网站人工智能及编程语言学习教程。读者们可以通过里面的文章详细了解一下人工智能及其编程等教程和学习方法。下面开始对正文内容的介绍。

前言
图像分类是计算机视觉领域中的一个基础任务,其目标是将输入的图像分配到预定义的类别中。近年来,深度学习技术,尤其是卷积神经网络(CNN),在图像分类任务中取得了显著的进展。ResNet(Residual Network)作为深度学习中的一个重要架构,通过引入残差学习解决了深层网络训练中的梯度消失和梯度爆炸问题。本文将详细介绍如何使用ResNet实现高效的图像分类,从理论基础到代码实现,带你一步步掌握图像分类的完整流程。
一、图像分类的基本概念
(一)图像分类的定义
图像分类是指将输入的图像分配到预定义的类别中的任务。图像分类模型通常需要从大量的标注数据中学习,以便能够准确地识别新图像的类别。
(二)图像分类的应用场景
1.  医学图像分析:识别医学图像中的病变区域。
2.  自动驾驶:识别道路标志、行人和车辆。
3.  安防监控:识别监控视频中的异常行为。
4.  内容推荐:根据图像内容推荐相关产品或服务。
二、ResNet架构的理论基础
(一)残差学习(Residual Learning)
ResNet的核心思想是引入残差学习,通过跳跃连接(Skip Connections)将输入直接传递到后面的层,从而解决了深层网络训练中的梯度消失和梯度爆炸问题。残差学习的基本形式如下:
 H(x) = F(x) + x 
其中, H(x)  是目标函数, F(x)  是残差函数, x  是输入。
(二)ResNet架构
ResNet通过堆叠多个残差模块(Residual Blocks)来构建深层网络。每个残差模块包含两个卷积层和一个跳跃连接,如下所示:
Input --> Conv2d --> ReLU --> Conv2d --> Add --> ReLU --> Output

跳跃连接将输入直接加到卷积层的输出上,从而保证了信息的传递。
(三)ResNet的优势
1.  缓解梯度消失问题:通过跳跃连接,梯度可以直接反向传播到前面的层。
2.  提高模型的训练效率:深层网络可以通过残差学习更容易地训练。
3.  提高模型的性能:ResNet在多个图像分类任务中取得了优异的性能。
三、代码实现
(一)环境准备
在开始之前,确保你已经安装了以下必要的库:
•  PyTorch
•  torchvision
•  matplotlib
•  numpy
如果你还没有安装这些库,可以通过以下命令安装:

pip install torch torchvision matplotlib numpy

(二)加载数据集
我们将使用CIFAR-10数据集,这是一个经典的小型图像分类数据集,包含10个类别。

import torch
import torchvision
import torchvision.transforms as transforms# 定义数据预处理
transform = transforms.Compose([transforms.RandomHorizontalFlip(),transforms.RandomCrop(32, padding=4),transforms.ToTensor(),transforms.Normalize(mean=[0.4914, 0.4822, 0.4465], std=[0.2023, 0.1994, 0.2010])
])# 加载训练集和测试集
train_dataset = torchvision.datasets.CIFAR10(root='./data', train=True, download=True, transform=transform)
test_dataset = torchvision.datasets.CIFAR10(root='./data', train=False, download=True, transform=transform)train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=64, shuffle=True)
test_loader = torch.utils.data.DataLoader(test_dataset, batch_size=64, shuffle=False)

(三)定义ResNet模型
以下是一个基于ResNet的图像分类模型的实现:

import torch.nn as nn
import torch.nn.functional as Fclass ResidualBlock(nn.Module):def __init__(self, in_channels, out_channels, stride=1):super(ResidualBlock, self).__init__()self.conv1 = nn.Conv2d(in_channels, out_channels, kernel_size=3, stride=stride, padding=1)self.bn1 = nn.BatchNorm2d(out_channels)self.conv2 = nn.Conv2d(out_channels, out_channels, kernel_size=3, stride=1, padding=1)self.bn2 = nn.BatchNorm2d(out_channels)self.shortcut = nn.Sequential()if stride != 1 or in_channels != out_channels:self.shortcut = nn.Sequential(nn.Conv2d(in_channels, out_channels, kernel_size=1, stride=stride, bias=False),nn.BatchNorm2d(out_channels))def forward(self, x):out = F.relu(self.bn1(self.conv1(x)))out = self.bn2(self.conv2(out))out += self.shortcut(x)out = F.relu(out)return outclass ResNet(nn.Module):def __init__(self, block, num_blocks, num_classes=10):super(ResNet, self).__init__()self.in_channels = 64self.conv1 = nn.Conv2d(3, 64, kernel_size=3, stride=1, padding=1)self.bn1 = nn.BatchNorm2d(64)self.layer1 = self._make_layer(block, 64, num_blocks[0], stride=1)self.layer2 = self._make_layer(block, 128, num_blocks[1], stride=2)self.layer3 = self._make_layer(block, 256, num_blocks[2], stride=2)self.layer4 = self._make_layer(block, 512, num_blocks[3], stride=2)self.fc = nn.Linear(512, num_classes)def _make_layer(self, block, out_channels, num_blocks, stride):strides = [stride] + [1] * (num_blocks - 1)layers = []for stride in strides:layers.append(block(self.in_channels, out_channels, stride))self.in_channels = out_channelsreturn nn.Sequential(*layers)def forward(self, x):out = F.relu(self.bn1(self.conv1(x)))out = self.layer1(out)out = self.layer2(out)out = self.layer3(out)out = self.layer4(out)out = F.avg_pool2d(out, 4)out = out.view(out.size(0), -1)out = self.fc(out)return outdef ResNet18():return ResNet(ResidualBlock, [2, 2, 2, 2])

(四)训练模型
现在,我们使用训练集数据来训练ResNet模型。

import torch.optim as optim# 初始化模型和优化器
model = ResNet18()
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)# 训练模型
num_epochs = 10
for epoch in range(num_epochs):model.train()running_loss = 0.0for batch in train_loader:inputs, labels = batchoptimizer.zero_grad()outputs = model(inputs)loss = criterion(outputs, labels)loss.backward()optimizer.step()running_loss += loss.item()print(f'Epoch [{epoch + 1}/{num_epochs}], Loss: {running_loss / len(train_loader):.4f}')

(五)评估模型
训练完成后,我们在测试集上评估模型的性能。

def evaluate(model, loader, criterion):model.eval()total_loss = 0.0correct = 0total = 0with torch.no_grad():for batch in loader:inputs, labels = batchoutputs = model(inputs)loss = criterion(outputs, labels)total_loss += loss.item()_, predicted = torch.max(outputs.data, 1)total += labels.size(0)correct += (predicted == labels).sum().item()accuracy = 100 * correct / totalreturn total_loss / len(loader), accuracytest_loss, test_acc = evaluate(model, test_loader, criterion)
print(f'Test Loss: {test_loss:.4f}, Test Accuracy: {test_acc:.2f}%')

四、总结
通过上述步骤,我们成功实现了一个基于ResNet的图像分类模型,并在CIFAR-10数据集上进行了训练和评估。ResNet通过残差学习解决了深层网络训练中的梯度消失问题,显著提高了模型的性能。你可以尝试使用其他深度学习模型(如VGG、DenseNet等),或者在更大的数据集上应用图像分类技术,探索更多有趣的应用场景。
如果你对图像分类感兴趣,或者有任何问题,欢迎在评论区留言!让我们一起

http://www.dtcms.com/a/291248.html

相关文章:

  • (10)机器学习小白入门 YOLOv:YOLOv8-cls 模型评估实操
  • G7打卡——Semi-Supervised GAN
  • numpy库的基础知识
  • 【VASP】机器学习势概述
  • 5G/4G PHY SoC:RNS802,适用于集成和分解的小型蜂窝 RAN 架构。
  • 在github上搭建自己主页
  • Blender软件入门-了解软件界面
  • JS逆向 - 滴滴(dd03、dd05)WSGSIG
  • Webpack源代码泄露漏洞
  • 云原生技术与应用-Kubernetes Pod调度基础
  • 热室机械手市场报告:智能装备推动高温制造自动化升级
  • 【推荐系统】推荐系统常用数据集介绍
  • 【系统全面】linux基础以及命令——基础知识介绍
  • stm32内存分析
  • ZYNQ硬核操作:免IIC驱动直控MCP4661T数字电位器
  • python实现接收九数云的异常分析指标推送通知
  • 海康威视视觉算法岗位30问及详解
  • 【开源】基于 C# 编写的轻量级工控网关和 SCADA 组态软件
  • 管理项目环境和在环境中使用conda或pip里如何查看库版本———Linux命令行操作
  • 工业仪表识别(一)环境安装
  • 一个月掌握数据结构与算法:高效学习计划
  • boost::asio 中 io_service与线程的关系
  • 企业开发转型 | 前端AI化数字化自动化现状
  • TestCase Studio - 自动生成测试用例详解
  • 注册表清理优化丨Wise RegistryCleaner_v11.1.10.725(官方赠品)
  • C# --- 使用Redis分布式锁实现初始化任务
  • Navicat数据建模三模型高效用法详解
  • 淘宝获取商品分类接口操作指南
  • Java学习 ------BIO模型
  • 识别并计算滑块距离