当前位置: 首页 > news >正文

《动手学深度学习v2》学习笔记 | 3.4-3.7 softmax 回归

写在前面

本文为《动手学深度学习v2》的学习笔记。本着自己学习、分享他人的态度,分享学习笔记,希望能对大家有所帮助。


 本文为同步更新版本,文章格式可能存在问题,建议阅读以下版本:

《动手学深度学习v2》学习笔记-合集 https://mp.weixin.qq.com/mp/appmsgalbum?__biz=MzkwMjM0MzA5MA==&action=getalbum&album_id=3180615146931748866#wechat_redirect

目录

  • 3.4 softmax 回归

    • 3.4.1 分类问题

    • 3.4.2 网络架构

    • 3.4.3 全连接层的参数开销

    • 3.4.4 softmax 运算

    • 3.4.5 小批量样本的矢量化

    • 3.4.6 损失函数

    • 3.4.7 信息论基础

    • 3.4.8 模型预测和评估

  • 3.5 图像分类数据集

    • 3.5.1 读取数据集

    • 3.5.2 读取小批量

    • 3.5.3 整合所有组件

  • 3.6 softmax 回归的从零开始实现

  • 3.7 softmax 回归的简洁实现

3.4 softmax 回归

参考资料:
视频:https://www.bilibili.com/video/BV1K64y1Q7wu/
教材:https://zh.d2l.ai/chapter_linear-networks/softmax-regression.html#softmax

3.4.1 分类问题

 

我们从一个图像分类问题开始。假设每次输入是一个  的灰度图像。我们可以用一个标量表示每个像素值,每个图像对应四个特征 。此外,假设每个图像属于类别“猫”、“鸡”、“狗”中的一个。

统计学家很早以前就发明了一种表示分类数据的简单方法:独热编码(one-hot encoding)。独热编码是一个向量,它的分量和类别一样多。类别对应的分量设置为 1,其他所有分量设置为 0。

在我们的例子中,标签  将是一个三维向量,其中  对应于“猫”、 对应于“鸡”、 对应于“狗”:

3.4.2 网络架构

为了解决线性模型的分类问题,我们需要和输出一样多的仿射函数(affine function)。每个输出对应于它自己的仿射函数。在我们的例子中,由于我们有 4 个特征和 3 个可能的输出类别,我们将需要 12 个标量来表示权重(带下标的 ),3 个标量来表示偏置(带下标的 )。下面我们为每个输入计算三个未规范化的预测(logit):、、。

我们可以用神经网络图图3.4.1来描述这个计算过程。与线性回归一样,softmax 回归也是一个单层神经网络。由于计算每个输出 、、 取决于所有输入 、、、,所以 softmax 回归的输出层也是全连接层。

 

图3.4.1 softmax 回归是一种单层神经网络

为了更简洁地表达模型,我们仍然使用线性代数符号。通过向量形式表达为 ,这是一种更适合数学和编写代码的形式。由此,我们已经将所有权重放到一个  矩阵中。对于给定数据样本的特征 ,我们的输出是由权重与输入特征进行矩阵-向量乘法再加上偏置  得到的。

3.4.3 全连接层的参数开销

对于任何具有  个输入和  个输出的全连接层,参数开销为 ,这个数字在实践中可能高得令人望而却步。幸运的是,将  个输入转换为  个输出的成本可以减少到 ,其中超参数  可以由我们灵活指定,以在实际应用中平衡参数节约和模型有效性。

3.4.4 softmax 运算

我们希望模型的输出  可以视为属于类  的概率,然后选择具有最大输出值的类别  作为我们的预测。例如,如果 、、 分别为 0.1、0.8、0.1,那么我们预测的类别是 2,在我们的例子中代表“鸡”。

softmax 函数能够将未规范化的预测变换为非负数并且总和为 1,同时让模型保持可导的性质。为了完成这一目标,我们首先对每个未规范化的预测求幂,这样可以确保输出非负。为了确保最终输出的概率值总和为 1,我们再让每个求幂后的结果除以它们的总和。如下式:

其中

这里,对于所有的  总有 。因此, 可以视为一个正确的概率分布。softmax 运算不会改变未规范化的预测  之间的大小次序,只会确定分配给每个类别的概率。因此,在预测过程中,我们仍然可以用下式来选择最有可能的类别。

尽管 softmax 是一个非线性函数,但 softmax 回归的输出仍然由输入特征的仿射变换决定。因此,softmax 回归是一个线性模型(linear model)

3.4.5 小批量样本的矢量化

为了提高计算效率并且充分利用 GPU,我们通常会对小批量样本的数据执行矢量计算。假设我们读取了一个批量的样本 ,其中特征维度(输入数量)为 ,批量大小为 。此外,假设我们在输出中有  个类别。那么小批量样本的特征为 ,权重为 ,偏置为 。softmax 回归的矢量计算表达式为:

3.4.6 损失函数

参考资料:
视频:https://www.bilibili.com/video/BV1K64y1Q7wu/?p=2
教材:https://zh.d2l.ai/chapter_linear-networks/softmax-regression.html#id7

  • 均方损失函数(L2 Loss)

 

蓝色: 时  的函数
绿色:L2 Loss 的似然函数
橙色:L2 Loss 的梯度

  • 绝对值损失函数(L1 Loss)

 

  • Huber's Robust Loss

 

3.4.6.1 对数似然

softmax 函数给出了一个向量 ,我们可以将其视为“对给定任意输入  的每个类的条件概率”。例如,=猫。假设整个数据集  具有  个样本,其中索引  的样本由特征向量  和独热标签向量  组成。我们可以将估计值与实际值进行比较:

根据最大似然估计,我们最大化 ,相当于最小化负对数似然:

其中,对于任何标签  和模型预测 ,损失函数为:

该损失函数通常被称为交叉熵损失(cross-entropy loss)

3.4.6.2 softmax 及其导数

其导数是真实概率和预测概率之间的差异:

3.4.6.3 交叉熵损失

对于标签 ,我们现在用一个概率向量表示,如 ,而不是仅包含二元项的向量 。我们使用 3.4.6.1 中的函数来定义损失 ,它是所有标签分布的预期损失值。此损失称为交叉熵损失(cross-entropy loss),它是分类问题最常用的损失之一。

3.4.7 信息论基础

信息论(information theory)涉及编码、解码、发送以及尽可能简洁地处理信息或数据。

3.4.8 模型预测和评估

在训练 softmax 回归模型后,给出任何样本特征,我们可以预测每个输出类别的概率。通常我们使用预测概率最高的类别作为输出类别。如果预测与实际类别(标签)一致,则预测是正确的。在接下来的实验中,我们将使用精度(accuracy)来评估模型的性能。精度等于正确预测数与预测总数之间的比率。


 

3.5 图像分类数据集

参考资料:
视频:https://www.bilibili.com/video/BV1K64y1Q7wu/?p=3
教材:https://zh.d2l.ai/chapter_linear-networks/image-classification-dataset.html#sec-fashion-mnist

MNIST 数据集是图像分类中广泛使用的数据集之一,但作为基准数据集过于简单。我们将使用类似但更复杂的 Fashion-MNIST 数据集。

%matplotlib inline
import torch
import torchvision
from torch.utils import data
from torchvision import transforms
from d2l import torch as d2ld2l.use_svg_display()

3.5.1 读取数据集

我们可以通过框架中的内置函数将 Fashion-MNIST 数据集下载并读取到内存中。

# 通过 ToTensor 实例将图像数据从 PIL 类型变换成 32 位浮点数格式,
# 并除以 255 使得所有像素的数值均在 0~1 之间
trans = transforms.ToTensor()
mnist_train = torchvision.datasets.FashionMNIST(root="../data", train=True, transform=trans, download=True)
mnist_test = torchvision.datasets.FashionMNIST(root="../data", train=False, transform=trans, download=True)

Fashion-MNIST 由 10 个类别的图像组成,每个类别由训练数据集(train dataset)中的 6000 张图像和测试数据集(test dataset)中的 1000 张图像组成。因此,训练集和测试集分别包含 60000 和 10000 张图像。测试数据集不会用于训练,只用于评估模型性能。

len(mnist_train), len(mnist_test)# (60000, 10000)

每个输入图像的高度和宽度均为 28 像素。 数据集由灰度图像组成,其通道数为1。

mnist_train[0][0].shape# torch.Size([1, 28, 28])

Fashion-MNIST 中包含的 10 个类别,分别为 t-shirt(T恤)、trouser(裤子)、pullover(套衫)、dress(连衣裙)、coat(外套)、sandal(凉鞋)、shirt(衬衫)、sneaker(运动鞋)、bag(包)、ankle boot(短靴)。

# 以下函数用于在数字标签索引及其文本名称之间进行转换。
def get_fashion_mnist_labels(labels):  #@save"""返回Fashion-MNIST数据集的文本标签"""text_labels = ['t-shirt', 'trouser', 'pullover', 'dress', 'coat','sandal', 'shirt', 'sneaker', 'bag', 'ankle boot']return [text_labels[int(i)] for i in labels]# 我们现在可以创建一个函数来可视化这些样本
def show_images(imgs, num_rows, num_cols, titles=None, scale=1.5):  #@save"""绘制图像列表"""figsize = (num_cols * scale, num_rows * scale)_, axes = d2l.plt.subplots(num_rows, num_cols, figsize=figsize)axes = axes.flatten()for i, (ax, img) in enumerate(zip(axes, imgs)):if torch.is_tensor(img):# 图片张量ax.imshow(img.numpy())else:# PIL图片ax.imshow(img)ax.axes.get_xaxis().set_visible(False)ax.axes.get_yaxis().set_visible(False)if titles:ax.set_title(titles[i])return axes

以下是训练数据集中前几个样本的图像及其相应的标签:

X, y = next(iter(data.DataLoader(mnist_train, batch_size=18)))
show_images(X.reshape(18, 28, 28), 2, 9, titles=get_fashion_mnist_labels(y));

 

3.5.2 读取小批量

在每次迭代中,数据加载器每次都会读取一小批量数据,大小为 batch_size。通过内置数据迭代器,我们可以随机打乱了所有样本,从而无偏见地读取小批量。

batch_size = 256def get_dataloader_workers():  #@save"""使用4个进程来读取数据"""return 4train_iter = data.DataLoader(mnist_train, batch_size, shuffle=True,num_workers=get_dataloader_workers())# 我们看一下读取训练数据所需的时间
timer = d2l.Timer()
for X, y in train_iter:continue
f'{timer.stop():.2f} sec'# '3.37 sec'

3.5.3 整合所有组件

现在我们定义 load_data_fashion_mnist 函数,用于获取和读取 Fashion-MNIST 数据集。这个函数返回训练集和验证集的数据迭代器。此外,这个函数还接受一个可选参数 resize,用来将图像大小调整为另一种形状。

def load_data_fashion_mnist(batch_size, resize=None):  #@save"""下载Fashion-MNIST数据集,然后将其加载到内存中"""trans = [transforms.ToTensor()]if resize:trans.insert(0, transforms.Resize(resize))trans = transforms.Compose(trans)mnist_train = torchvision.datasets.FashionMNIST(root="../data", train=True, transform=trans, download=True)mnist_test = torchvision.datasets.FashionMNIST(root="../data", train=False, transform=trans, download=True)return (data.DataLoader(mnist_train, batch_size, shuffle=True,num_workers=get_dataloader_workers()),data.DataLoader(mnist_test, batch_size, shuffle=False,num_workers=get_dataloader_workers()))

下面,我们通过指定 resize 参数来测试 load_data_fashion_mnist 函数的图像大小调整功能。

train_iter, test_iter = load_data_fashion_mnist(32, resize=64)
for X, y in train_iter:print(X.shape, X.dtype, y.shape, y.dtype)break# torch.Size([32, 1, 64, 64]) torch.float32 torch.Size([32]) torch.int64

我们现在已经准备好使用 Fashion-MNIST 数据集,便于下面的章节调用来评估各种分类算法。


 

3.6 softmax 回归的从零开始实现

参考资料:
视频:https://www.bilibili.com/video/BV1K64y1Q7wu?p=4
教材:https://zh.d2l.ai/chapter_linear-networks/softmax-regression-scratch.html#softmax

就像我们从零开始实现线性回归一样, 我们认为 softmax 回归也是重要的基础,因此应该知道实现 softmax 回归的细节。本节我们将使用刚刚在 3.5 节中引入的 Fashion-MNIST 数据集,并设置数据迭代器的批量大小为 256。

import torch
from IPython import display
from d2l import torch as d2lbatch_size = 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)

3.6.1 初始化模型参数

原始数据集中的每个样本都是  的图像。本节将展平每个图像,把它们看作长度为 784 的向量。

在 softmax 回归中,我们的输出与类别一样多。因为我们的数据集有 10 个类别,所以网络输出维度为 10。因此,权重将构成一个  的矩阵,偏置将构成一个  的行向量。与线性回归一样,我们将使用正态分布初始化我们的权重W,偏置b初始化为 0。

num_inputs = 784
num_outputs = 10W = torch.normal(0, 0.01, size=(num_inputs, num_outputs), requires_grad=True)
b = torch.zeros(num_outputs, requires_grad=True)

3.6.2 定义softmax操作

当调用 sum 运算符时,我们可以指定保持在原始张量的轴数,而不折叠求和的维度

X = torch.tensor([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]])
X.sum(0, keepdim=True), X.sum(1, keepdim=True)
# (tensor([[5., 7., 9.]]),
#  tensor([[ 6.],
#          [15.]]))

回想一下,实现 softmax 由三个步骤组成:

  1. 对每个项求幂(使用exp);

  2. 对每一行求和(小批量中每个样本是一行),得到每个样本的规范化常数;

  3. 将每一行除以其规范化常数,确保结果的和为 1。

在查看代码之前,我们回顾一下这个表达式:

def softmax(X):X_exp = torch.exp(X)partition = X_exp.sum(1, keepdim=True)return X_exp / partition  # 这里应用了广播机制

正如上述代码,对于任何随机输入,我们将每个元素变成一个非负数。此外,依据概率原理,每行总和为 1。

X = torch.normal(0, 1, (2, 5))
X_prob = softmax(X)
X_prob, X_prob.sum(1)
# (tensor([[0.1686, 0.4055, 0.0849, 0.1064, 0.2347],
#          [0.0217, 0.2652, 0.6354, 0.0457, 0.0321]]),
#  tensor([1.0000, 1.0000]))

3.6.3 定义模型

定义 softmax 操作后,我们可以实现 softmax 回归模型:

def net(X):return softmax(torch.matmul(X.reshape((-1, W.shape[0])), W) + b)

3.6.4 定义损失函数

我们创建一个数据样本 y_hat,其中包含 2 个样本在 3 个类别的预测概率,以及它们对应的标签 y

y = torch.tensor([0, 2])
y_hat = torch.tensor([[0.1, 0.3, 0.6], [0.3, 0.2, 0.5]])
y_hat[[0, 1], y]
# tensor([0.1000, 0.5000])

实现交叉熵损失函数:

def cross_entropy(y_hat, y):return - torch.log(y_hat[range(len(y_hat)), y])cross_entropy(y_hat, y)
# tensor([2.3026, 0.6931])

3.6.5 分类精度

分类精度即正确预测数量与总预测数量之比。为了计算精度,我们执行以下操作:

def accuracy(y_hat, y):  #@save"""计算预测正确的数量"""if len(y_hat.shape) > 1 and y_hat.shape[1] > 1:y_hat = y_hat.argmax(axis=1)cmp = y_hat.type(y.dtype) == yreturn float(cmp.type(y.dtype).sum())accuracy(y_hat, y) / len(y)
# 0.5

同样,对于任意数据迭代器 data_iter 可访问的数据集, 我们可以评估在任意模型 net 的精度。

def evaluate_accuracy(net, data_iter):  #@save"""计算在指定数据集上模型的精度"""if isinstance(net, torch.nn.Module):net.eval()  # 将模型设置为评估模式metric = Accumulator(2)  # 正确预测数、预测总数with torch.no_grad():for X, y in data_iter:metric.add(accuracy(net(X), y), y.numel())return metric[0] / metric[1]

这里定义一个实用程序类 Accumulator,用于对多个变量进行累加。在上面的 evaluate_accuracy 函数中,我们在 Accumulator 实例中创建了 2 个变量,分别用于存储正确预测的数量和预测的总数量。当我们遍历数据集时,两者都将随着时间的推移而累加。

class Accumulator:  #@save"""在n个变量上累加"""def __init__(self, n):self.data = [0.0] * ndef add(self, *args):self.data = [a + float(b) for a, b in zip(self.data, args)]def reset(self):self.data = [0.0] * len(self.data)def __getitem__(self, idx):return self.data[idx]

由于我们使用随机权重初始化 net 模型, 因此该模型的精度应接近于随机猜测。例如在有 10 个类别情况下的精度为 0.1。

evaluate_accuracy(net, test_iter)
# 0.0625

3.6.6 训练

softmax 回归的训练:

def train_epoch_ch3(net, train_iter, loss, updater):  #@save"""训练模型一个迭代周期(定义见第3章)"""# 将模型设置为训练模式if isinstance(net, torch.nn.Module):net.train()# 训练损失总和、训练准确度总和、样本数metric = Accumulator(3)for X, y in train_iter:# 计算梯度并更新参数y_hat = net(X)l = loss(y_hat, y)if isinstance(updater, torch.optim.Optimizer):# 使用PyTorch内置的优化器和损失函数updater.zero_grad()l.mean().backward()updater.step()else:# 使用定制的优化器和损失函数l.sum().backward()updater(X.shape[0])metric.add(float(l.sum()), accuracy(y_hat, y), y.numel())# 返回训练损失和训练精度return metric[0] / metric[2], metric[1] / metric[2]

我们定义一个在动画中绘制数据的实用程序类 Animator:

class Animator:  #@save"""在动画中绘制数据"""def __init__(self, xlabel=None, ylabel=None, legend=None, xlim=None,ylim=None, xscale='linear', yscale='linear',fmts=('-', 'm--', 'g-.', 'r:'), nrows=1, ncols=1,figsize=(3.5, 2.5)):# 增量地绘制多条线if legend is None:legend = []d2l.use_svg_display()self.fig, self.axes = d2l.plt.subplots(nrows, ncols, figsize=figsize)if nrows * ncols == 1:self.axes = [self.axes, ]# 使用lambda函数捕获参数self.config_axes = lambda: d2l.set_axes(self.axes[0], xlabel, ylabel, xlim, ylim, xscale, yscale, legend)self.X, self.Y, self.fmts = None, None, fmtsdef add(self, x, y):# 向图表中添加多个数据点if not hasattr(y, "__len__"):y = [y]n = len(y)if not hasattr(x, "__len__"):x = [x] * nif not self.X:self.X = [[] for _ in range(n)]if not self.Y:self.Y = [[] for _ in range(n)]for i, (a, b) in enumerate(zip(x, y)):if a is not None and b is not None:self.X[i].append(a)self.Y[i].append(b)self.axes[0].cla()for x, y, fmt in zip(self.X, self.Y, self.fmts):self.axes[0].plot(x, y, fmt)self.config_axes()display.display(self.fig)display.clear_output(wait=True)

接下来我们实现一个训练函数:

def train_ch3(net, train_iter, test_iter, loss, num_epochs, updater):  #@save"""训练模型(定义见第3章)"""animator = Animator(xlabel='epoch', xlim=[1, num_epochs], ylim=[0.3, 0.9],legend=['train loss', 'train acc', 'test acc'])for epoch in range(num_epochs):train_metrics = train_epoch_ch3(net, train_iter, loss, updater)test_acc = evaluate_accuracy(net, test_iter)animator.add(epoch + 1, train_metrics + (test_acc,))train_loss, train_acc = train_metricsassert train_loss < 0.5, train_lossassert train_acc <= 1 and train_acc > 0.7, train_accassert test_acc <= 1 and test_acc > 0.7, test_acc

小批量随机梯度下降来优化模型的损失函数,设置学习率为 0.1

lr = 0.1def updater(batch_size):return d2l.sgd([W, b], lr, batch_size)

我们训练模型 10 个迭代周期

num_epochs = 10
train_ch3(net, train_iter, test_iter, cross_entropy, num_epochs, updater)

 

3.6.7 预测

现在训练已经完成,我们的模型已经准备好对图像进行分类预测。 给定一系列图像,我们将比较它们的实际标签(文本输出的第一行)和模型预测(文本输出的第二行)。

def predict_ch3(net, test_iter, n=6):  #@save"""预测标签(定义见第3章)"""for X, y in test_iter:breaktrues = d2l.get_fashion_mnist_labels(y)preds = d2l.get_fashion_mnist_labels(net(X).argmax(axis=1))titles = [true +'\n' + pred for true, pred in zip(trues, preds)]d2l.show_images(X[0:n].reshape((n, 28, 28)), 1, n, titles=titles[0:n])predict_ch3(net, test_iter)

 


 

3.7 softmax 回归的简洁实现

参考资料:
视频:https://www.bilibili.com/video/BV1K64y1Q7wu?p=5
教材:https://zh.d2l.ai/chapter_linear-networks/softmax-regression-concise.html#softmax

通过深度学习框架的高级 API 也能更方便地实现 softmax 回归模型

import torch
from torch import nn
from d2l import torch as d2lbatch_size = 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)

3.7.1 初始化模型参数

softmax 回归的输出层是一个全连接层,我们仍然以均值0和标准差0.01随机初始化权重。

# PyTorch不会隐式地调整输入的形状。因此,
# 我们在线性层前定义了展平层(flatten),来调整网络输入的形状
net = nn.Sequential(nn.Flatten(), nn.Linear(784, 10))def init_weights(m):if type(m) == nn.Linear:nn.init.normal_(m.weight, std=0.01)net.apply(init_weights);

3.7.2 重新审视Softmax的实现

在交叉熵损失函数中传递未归一化的预测,并同时计算 softmax 及其对数

loss = nn.CrossEntropyLoss(reduction='none')

3.7.3 优化算法

在这里,我们使用学习率为 0.1 的小批量随机梯度下降作为优化算法。

trainer = torch.optim.SGD(net.parameters(), lr=0.1)

3.7.4 训练

接下来我们调用 3.6 节中定义的训练函数来训练模型。

num_epochs = 10
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, trainer)

 

 

--------------- 结束 ---------------

 

注:本文为个人学习笔记,仅供大家参考学习,不得用于任何商业目的。如有侵权,请联系作者删除。

 

http://www.dtcms.com/a/470608.html

相关文章:

  • Python驱动的无人机多光谱-点云融合技术在生态三维建模与碳储量、生物量、LULC估算中的全流程实战
  • 哪些网站收录排名好wordpress 获取title
  • 大语言模型核心技术解析:从 Transformer 架构到下词预测的完整工作原理与编码器、解码器及注意力机制的运作流程
  • 企业网站模板建站怎么用上海平台公司
  • Android Maven私服搭建(Windows)
  • Webpack 模块联邦(Module Federation)
  • 河南锦源建设有限公司网站重庆建站网站建设平台
  • JZ39 数组中出现次数超过一半的数字
  • 网站开发智能化方向门户网站建设原则
  • 【React】动态SVG连接线实现:图片与按钮的可视化映射​
  • 专门做油站数据的网站游戏网页版入口
  • 【碎片化学习】SpringBoot数据库驱动介绍配置方法和代码
  • 设计模式篇之 适配器模式 Adapter
  • 小程序怎么制作自己的小程序seo长尾关键词优化
  • 网站备案号规则中核集团2023校园招聘信息
  • postman 做接口测试之学习笔记
  • 做网站要买多少服务器空间有什么做家纺的网站
  • 【编号26】青藏高原地理空间全套数据集(矢量边界、子流域、行政边界、水系等)
  • loguru 和 logging 的详细对比
  • 番禺移动网站建设百度快照投诉中心官网
  • 调试去符号化/strip 过的二进制的调试方法
  • 大连建设局网站地址怎么将自己房子投入网站做民宿
  • 新河网站旅游网站策划方案
  • 建网站备案好麻烦长春市建设工程造价管理协会网站
  • 东莞设计网站建设方案南京网站建设排名
  • Dirty COW容器逃逸漏洞渗透实战:原理+复现 (CVE-2016-5195)
  • 2010 866数据结构 算法设计题——链表,二叉树
  • 对海尔网站建设水平的评价长沙网站备案
  • Codeforces Round 1057 (Div. 2)(A-D)
  • 微信网站备案wordpress step2