《动手学深度学习v2》学习笔记 | 3.4-3.7 softmax 回归
写在前面
本文为《动手学深度学习v2》的学习笔记。本着自己学习、分享他人的态度,分享学习笔记,希望能对大家有所帮助。
本文为同步更新版本,文章格式可能存在问题,建议阅读以下版本:
《动手学深度学习v2》学习笔记-合集https://mp.weixin.qq.com/mp/appmsgalbum?__biz=MzkwMjM0MzA5MA==&action=getalbum&album_id=3180615146931748866#wechat_redirect
目录
-
3.4 softmax 回归
-
3.4.1 分类问题
-
3.4.2 网络架构
-
3.4.3 全连接层的参数开销
-
3.4.4 softmax 运算
-
3.4.5 小批量样本的矢量化
-
3.4.6 损失函数
-
3.4.7 信息论基础
-
3.4.8 模型预测和评估
-
-
3.5 图像分类数据集
-
3.5.1 读取数据集
-
3.5.2 读取小批量
-
3.5.3 整合所有组件
-
-
3.6 softmax 回归的从零开始实现
-
3.7 softmax 回归的简洁实现
3.4 softmax 回归
参考资料:
视频:https://www.bilibili.com/video/BV1K64y1Q7wu/
教材:https://zh.d2l.ai/chapter_linear-networks/softmax-regression.html#softmax
3.4.1 分类问题
我们从一个图像分类问题开始。假设每次输入是一个 的灰度图像。我们可以用一个标量表示每个像素值,每个图像对应四个特征 。此外,假设每个图像属于类别“猫”、“鸡”、“狗”中的一个。
统计学家很早以前就发明了一种表示分类数据的简单方法:独热编码(one-hot encoding)。独热编码是一个向量,它的分量和类别一样多。类别对应的分量设置为 1,其他所有分量设置为 0。
在我们的例子中,标签 将是一个三维向量,其中 对应于“猫”、 对应于“鸡”、 对应于“狗”:
3.4.2 网络架构
为了解决线性模型的分类问题,我们需要和输出一样多的仿射函数(affine function)。每个输出对应于它自己的仿射函数。在我们的例子中,由于我们有 4 个特征和 3 个可能的输出类别,我们将需要 12 个标量来表示权重(带下标的 ),3 个标量来表示偏置(带下标的 )。下面我们为每个输入计算三个未规范化的预测(logit):、、。
我们可以用神经网络图图3.4.1
来描述这个计算过程。与线性回归一样,softmax 回归也是一个单层神经网络。由于计算每个输出 、、 取决于所有输入 、、、,所以 softmax 回归的输出层也是全连接层。
图3.4.1 softmax 回归是一种单层神经网络
为了更简洁地表达模型,我们仍然使用线性代数符号。通过向量形式表达为 ,这是一种更适合数学和编写代码的形式。由此,我们已经将所有权重放到一个 矩阵中。对于给定数据样本的特征 ,我们的输出是由权重与输入特征进行矩阵-向量乘法再加上偏置 得到的。
3.4.3 全连接层的参数开销
对于任何具有 个输入和 个输出的全连接层,参数开销为 ,这个数字在实践中可能高得令人望而却步。幸运的是,将 个输入转换为 个输出的成本可以减少到 ,其中超参数 可以由我们灵活指定,以在实际应用中平衡参数节约和模型有效性。
3.4.4 softmax 运算
我们希望模型的输出 可以视为属于类 的概率,然后选择具有最大输出值的类别 作为我们的预测。例如,如果 、、 分别为 0.1、0.8、0.1,那么我们预测的类别是 2,在我们的例子中代表“鸡”。
softmax 函数能够将未规范化的预测变换为非负数并且总和为 1,同时让模型保持可导的性质。为了完成这一目标,我们首先对每个未规范化的预测求幂,这样可以确保输出非负。为了确保最终输出的概率值总和为 1,我们再让每个求幂后的结果除以它们的总和。如下式:
其中
这里,对于所有的 总有 。因此, 可以视为一个正确的概率分布。softmax 运算不会改变未规范化的预测 之间的大小次序,只会确定分配给每个类别的概率。因此,在预测过程中,我们仍然可以用下式来选择最有可能的类别。
尽管 softmax 是一个非线性函数,但 softmax 回归的输出仍然由输入特征的仿射变换决定。因此,softmax 回归是一个线性模型(linear model)。
3.4.5 小批量样本的矢量化
为了提高计算效率并且充分利用 GPU,我们通常会对小批量样本的数据执行矢量计算。假设我们读取了一个批量的样本 ,其中特征维度(输入数量)为 ,批量大小为 。此外,假设我们在输出中有 个类别。那么小批量样本的特征为 ,权重为 ,偏置为 。softmax 回归的矢量计算表达式为:
3.4.6 损失函数
参考资料:
视频:https://www.bilibili.com/video/BV1K64y1Q7wu/?p=2
教材:https://zh.d2l.ai/chapter_linear-networks/softmax-regression.html#id7
-
均方损失函数(L2 Loss)
蓝色: 时 的函数
绿色:L2 Loss 的似然函数
橙色:L2 Loss 的梯度
-
绝对值损失函数(L1 Loss)
-
Huber's Robust Loss
3.4.6.1 对数似然
softmax 函数给出了一个向量 ,我们可以将其视为“对给定任意输入 的每个类的条件概率”。例如,=猫。假设整个数据集 具有 个样本,其中索引 的样本由特征向量 和独热标签向量 组成。我们可以将估计值与实际值进行比较:
根据最大似然估计,我们最大化 ,相当于最小化负对数似然:
其中,对于任何标签 和模型预测 ,损失函数为:
该损失函数通常被称为交叉熵损失(cross-entropy loss)。
3.4.6.2 softmax 及其导数
其导数是真实概率和预测概率之间的差异:
3.4.6.3 交叉熵损失
对于标签 ,我们现在用一个概率向量表示,如 ,而不是仅包含二元项的向量 。我们使用 3.4.6.1
中的函数来定义损失 ,它是所有标签分布的预期损失值。此损失称为交叉熵损失(cross-entropy loss),它是分类问题最常用的损失之一。
3.4.7 信息论基础
信息论(information theory)涉及编码、解码、发送以及尽可能简洁地处理信息或数据。
3.4.8 模型预测和评估
在训练 softmax 回归模型后,给出任何样本特征,我们可以预测每个输出类别的概率。通常我们使用预测概率最高的类别作为输出类别。如果预测与实际类别(标签)一致,则预测是正确的。在接下来的实验中,我们将使用精度(accuracy)来评估模型的性能。精度等于正确预测数与预测总数之间的比率。
3.5 图像分类数据集
参考资料:
视频:https://www.bilibili.com/video/BV1K64y1Q7wu/?p=3
教材:https://zh.d2l.ai/chapter_linear-networks/image-classification-dataset.html#sec-fashion-mnist
MNIST
数据集是图像分类中广泛使用的数据集之一,但作为基准数据集过于简单。我们将使用类似但更复杂的 Fashion-MNIST
数据集。
%matplotlib inline
import torch
import torchvision
from torch.utils import data
from torchvision import transforms
from d2l import torch as d2ld2l.use_svg_display()
3.5.1 读取数据集
我们可以通过框架中的内置函数将 Fashion-MNIST
数据集下载并读取到内存中。
# 通过 ToTensor 实例将图像数据从 PIL 类型变换成 32 位浮点数格式,
# 并除以 255 使得所有像素的数值均在 0~1 之间
trans = transforms.ToTensor()
mnist_train = torchvision.datasets.FashionMNIST(root="../data", train=True, transform=trans, download=True)
mnist_test = torchvision.datasets.FashionMNIST(root="../data", train=False, transform=trans, download=True)
Fashion-MNIST
由 10 个类别的图像组成,每个类别由训练数据集(train dataset)中的 6000 张图像和测试数据集(test dataset)中的 1000 张图像组成。因此,训练集和测试集分别包含 60000 和 10000 张图像。测试数据集不会用于训练,只用于评估模型性能。
len(mnist_train), len(mnist_test)# (60000, 10000)
每个输入图像的高度和宽度均为 28 像素。 数据集由灰度图像组成,其通道数为1。
mnist_train[0][0].shape# torch.Size([1, 28, 28])
Fashion-MNIST
中包含的 10 个类别,分别为 t-shirt(T恤)、trouser(裤子)、pullover(套衫)、dress(连衣裙)、coat(外套)、sandal(凉鞋)、shirt(衬衫)、sneaker(运动鞋)、bag(包)、ankle boot(短靴)。
# 以下函数用于在数字标签索引及其文本名称之间进行转换。
def get_fashion_mnist_labels(labels): #@save"""返回Fashion-MNIST数据集的文本标签"""text_labels = ['t-shirt', 'trouser', 'pullover', 'dress', 'coat','sandal', 'shirt', 'sneaker', 'bag', 'ankle boot']return [text_labels[int(i)] for i in labels]# 我们现在可以创建一个函数来可视化这些样本
def show_images(imgs, num_rows, num_cols, titles=None, scale=1.5): #@save"""绘制图像列表"""figsize = (num_cols * scale, num_rows * scale)_, axes = d2l.plt.subplots(num_rows, num_cols, figsize=figsize)axes = axes.flatten()for i, (ax, img) in enumerate(zip(axes, imgs)):if torch.is_tensor(img):# 图片张量ax.imshow(img.numpy())else:# PIL图片ax.imshow(img)ax.axes.get_xaxis().set_visible(False)ax.axes.get_yaxis().set_visible(False)if titles:ax.set_title(titles[i])return axes
以下是训练数据集中前几个样本的图像及其相应的标签:
X, y = next(iter(data.DataLoader(mnist_train, batch_size=18)))
show_images(X.reshape(18, 28, 28), 2, 9, titles=get_fashion_mnist_labels(y));
3.5.2 读取小批量
在每次迭代中,数据加载器每次都会读取一小批量数据,大小为 batch_size。通过内置数据迭代器,我们可以随机打乱了所有样本,从而无偏见地读取小批量。
batch_size = 256def get_dataloader_workers(): #@save"""使用4个进程来读取数据"""return 4train_iter = data.DataLoader(mnist_train, batch_size, shuffle=True,num_workers=get_dataloader_workers())# 我们看一下读取训练数据所需的时间
timer = d2l.Timer()
for X, y in train_iter:continue
f'{timer.stop():.2f} sec'# '3.37 sec'
3.5.3 整合所有组件
现在我们定义 load_data_fashion_mnist
函数,用于获取和读取 Fashion-MNIST
数据集。这个函数返回训练集和验证集的数据迭代器。此外,这个函数还接受一个可选参数 resize
,用来将图像大小调整为另一种形状。
def load_data_fashion_mnist(batch_size, resize=None): #@save"""下载Fashion-MNIST数据集,然后将其加载到内存中"""trans = [transforms.ToTensor()]if resize:trans.insert(0, transforms.Resize(resize))trans = transforms.Compose(trans)mnist_train = torchvision.datasets.FashionMNIST(root="../data", train=True, transform=trans, download=True)mnist_test = torchvision.datasets.FashionMNIST(root="../data", train=False, transform=trans, download=True)return (data.DataLoader(mnist_train, batch_size, shuffle=True,num_workers=get_dataloader_workers()),data.DataLoader(mnist_test, batch_size, shuffle=False,num_workers=get_dataloader_workers()))
下面,我们通过指定 resize
参数来测试 load_data_fashion_mnist
函数的图像大小调整功能。
train_iter, test_iter = load_data_fashion_mnist(32, resize=64)
for X, y in train_iter:print(X.shape, X.dtype, y.shape, y.dtype)break# torch.Size([32, 1, 64, 64]) torch.float32 torch.Size([32]) torch.int64
我们现在已经准备好使用 Fashion-MNIST
数据集,便于下面的章节调用来评估各种分类算法。
3.6 softmax 回归的从零开始实现
参考资料:
视频:https://www.bilibili.com/video/BV1K64y1Q7wu?p=4
教材:https://zh.d2l.ai/chapter_linear-networks/softmax-regression-scratch.html#softmax
就像我们从零开始实现线性回归一样, 我们认为 softmax 回归也是重要的基础,因此应该知道实现 softmax 回归的细节。本节我们将使用刚刚在 3.5 节中引入的 Fashion-MNIST 数据集,并设置数据迭代器的批量大小为 256。
import torch
from IPython import display
from d2l import torch as d2lbatch_size = 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)
3.6.1 初始化模型参数
原始数据集中的每个样本都是 的图像。本节将展平每个图像,把它们看作长度为 784 的向量。
在 softmax 回归中,我们的输出与类别一样多。因为我们的数据集有 10 个类别,所以网络输出维度为 10。因此,权重将构成一个 的矩阵,偏置将构成一个 的行向量。与线性回归一样,我们将使用正态分布初始化我们的权重W
,偏置b
初始化为 0。
num_inputs = 784
num_outputs = 10W = torch.normal(0, 0.01, size=(num_inputs, num_outputs), requires_grad=True)
b = torch.zeros(num_outputs, requires_grad=True)
3.6.2 定义softmax操作
当调用 sum
运算符时,我们可以指定保持在原始张量的轴数,而不折叠求和的维度
X = torch.tensor([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]])
X.sum(0, keepdim=True), X.sum(1, keepdim=True)
# (tensor([[5., 7., 9.]]),
# tensor([[ 6.],
# [15.]]))
回想一下,实现 softmax 由三个步骤组成:
-
对每个项求幂(使用
exp
); -
对每一行求和(小批量中每个样本是一行),得到每个样本的规范化常数;
-
将每一行除以其规范化常数,确保结果的和为 1。
在查看代码之前,我们回顾一下这个表达式:
def softmax(X):X_exp = torch.exp(X)partition = X_exp.sum(1, keepdim=True)return X_exp / partition # 这里应用了广播机制
正如上述代码,对于任何随机输入,我们将每个元素变成一个非负数。此外,依据概率原理,每行总和为 1。
X = torch.normal(0, 1, (2, 5))
X_prob = softmax(X)
X_prob, X_prob.sum(1)
# (tensor([[0.1686, 0.4055, 0.0849, 0.1064, 0.2347],
# [0.0217, 0.2652, 0.6354, 0.0457, 0.0321]]),
# tensor([1.0000, 1.0000]))
3.6.3 定义模型
定义 softmax 操作后,我们可以实现 softmax 回归模型:
def net(X):return softmax(torch.matmul(X.reshape((-1, W.shape[0])), W) + b)
3.6.4 定义损失函数
我们创建一个数据样本 y_hat
,其中包含 2 个样本在 3 个类别的预测概率,以及它们对应的标签 y
。
y = torch.tensor([0, 2])
y_hat = torch.tensor([[0.1, 0.3, 0.6], [0.3, 0.2, 0.5]])
y_hat[[0, 1], y]
# tensor([0.1000, 0.5000])
实现交叉熵损失函数:
def cross_entropy(y_hat, y):return - torch.log(y_hat[range(len(y_hat)), y])cross_entropy(y_hat, y)
# tensor([2.3026, 0.6931])
3.6.5 分类精度
分类精度即正确预测数量与总预测数量之比。为了计算精度,我们执行以下操作:
def accuracy(y_hat, y): #@save"""计算预测正确的数量"""if len(y_hat.shape) > 1 and y_hat.shape[1] > 1:y_hat = y_hat.argmax(axis=1)cmp = y_hat.type(y.dtype) == yreturn float(cmp.type(y.dtype).sum())accuracy(y_hat, y) / len(y)
# 0.5
同样,对于任意数据迭代器 data_iter 可访问的数据集, 我们可以评估在任意模型 net 的精度。
def evaluate_accuracy(net, data_iter): #@save"""计算在指定数据集上模型的精度"""if isinstance(net, torch.nn.Module):net.eval() # 将模型设置为评估模式metric = Accumulator(2) # 正确预测数、预测总数with torch.no_grad():for X, y in data_iter:metric.add(accuracy(net(X), y), y.numel())return metric[0] / metric[1]
这里定义一个实用程序类 Accumulator,用于对多个变量进行累加。在上面的 evaluate_accuracy 函数中,我们在 Accumulator 实例中创建了 2 个变量,分别用于存储正确预测的数量和预测的总数量。当我们遍历数据集时,两者都将随着时间的推移而累加。
class Accumulator: #@save"""在n个变量上累加"""def __init__(self, n):self.data = [0.0] * ndef add(self, *args):self.data = [a + float(b) for a, b in zip(self.data, args)]def reset(self):self.data = [0.0] * len(self.data)def __getitem__(self, idx):return self.data[idx]
由于我们使用随机权重初始化 net 模型, 因此该模型的精度应接近于随机猜测。例如在有 10 个类别情况下的精度为 0.1。
evaluate_accuracy(net, test_iter)
# 0.0625
3.6.6 训练
softmax 回归的训练:
def train_epoch_ch3(net, train_iter, loss, updater): #@save"""训练模型一个迭代周期(定义见第3章)"""# 将模型设置为训练模式if isinstance(net, torch.nn.Module):net.train()# 训练损失总和、训练准确度总和、样本数metric = Accumulator(3)for X, y in train_iter:# 计算梯度并更新参数y_hat = net(X)l = loss(y_hat, y)if isinstance(updater, torch.optim.Optimizer):# 使用PyTorch内置的优化器和损失函数updater.zero_grad()l.mean().backward()updater.step()else:# 使用定制的优化器和损失函数l.sum().backward()updater(X.shape[0])metric.add(float(l.sum()), accuracy(y_hat, y), y.numel())# 返回训练损失和训练精度return metric[0] / metric[2], metric[1] / metric[2]
我们定义一个在动画中绘制数据的实用程序类 Animator:
class Animator: #@save"""在动画中绘制数据"""def __init__(self, xlabel=None, ylabel=None, legend=None, xlim=None,ylim=None, xscale='linear', yscale='linear',fmts=('-', 'm--', 'g-.', 'r:'), nrows=1, ncols=1,figsize=(3.5, 2.5)):# 增量地绘制多条线if legend is None:legend = []d2l.use_svg_display()self.fig, self.axes = d2l.plt.subplots(nrows, ncols, figsize=figsize)if nrows * ncols == 1:self.axes = [self.axes, ]# 使用lambda函数捕获参数self.config_axes = lambda: d2l.set_axes(self.axes[0], xlabel, ylabel, xlim, ylim, xscale, yscale, legend)self.X, self.Y, self.fmts = None, None, fmtsdef add(self, x, y):# 向图表中添加多个数据点if not hasattr(y, "__len__"):y = [y]n = len(y)if not hasattr(x, "__len__"):x = [x] * nif not self.X:self.X = [[] for _ in range(n)]if not self.Y:self.Y = [[] for _ in range(n)]for i, (a, b) in enumerate(zip(x, y)):if a is not None and b is not None:self.X[i].append(a)self.Y[i].append(b)self.axes[0].cla()for x, y, fmt in zip(self.X, self.Y, self.fmts):self.axes[0].plot(x, y, fmt)self.config_axes()display.display(self.fig)display.clear_output(wait=True)
接下来我们实现一个训练函数:
def train_ch3(net, train_iter, test_iter, loss, num_epochs, updater): #@save"""训练模型(定义见第3章)"""animator = Animator(xlabel='epoch', xlim=[1, num_epochs], ylim=[0.3, 0.9],legend=['train loss', 'train acc', 'test acc'])for epoch in range(num_epochs):train_metrics = train_epoch_ch3(net, train_iter, loss, updater)test_acc = evaluate_accuracy(net, test_iter)animator.add(epoch + 1, train_metrics + (test_acc,))train_loss, train_acc = train_metricsassert train_loss < 0.5, train_lossassert train_acc <= 1 and train_acc > 0.7, train_accassert test_acc <= 1 and test_acc > 0.7, test_acc
小批量随机梯度下降来优化模型的损失函数,设置学习率为 0.1
lr = 0.1def updater(batch_size):return d2l.sgd([W, b], lr, batch_size)
我们训练模型 10 个迭代周期
num_epochs = 10
train_ch3(net, train_iter, test_iter, cross_entropy, num_epochs, updater)
3.6.7 预测
现在训练已经完成,我们的模型已经准备好对图像进行分类预测。 给定一系列图像,我们将比较它们的实际标签(文本输出的第一行)和模型预测(文本输出的第二行)。
def predict_ch3(net, test_iter, n=6): #@save"""预测标签(定义见第3章)"""for X, y in test_iter:breaktrues = d2l.get_fashion_mnist_labels(y)preds = d2l.get_fashion_mnist_labels(net(X).argmax(axis=1))titles = [true +'\n' + pred for true, pred in zip(trues, preds)]d2l.show_images(X[0:n].reshape((n, 28, 28)), 1, n, titles=titles[0:n])predict_ch3(net, test_iter)
3.7 softmax 回归的简洁实现
参考资料:
视频:https://www.bilibili.com/video/BV1K64y1Q7wu?p=5
教材:https://zh.d2l.ai/chapter_linear-networks/softmax-regression-concise.html#softmax
通过深度学习框架的高级 API 也能更方便地实现 softmax 回归模型
import torch
from torch import nn
from d2l import torch as d2lbatch_size = 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)
3.7.1 初始化模型参数
softmax 回归的输出层是一个全连接层,我们仍然以均值0和标准差0.01随机初始化权重。
# PyTorch不会隐式地调整输入的形状。因此,
# 我们在线性层前定义了展平层(flatten),来调整网络输入的形状
net = nn.Sequential(nn.Flatten(), nn.Linear(784, 10))def init_weights(m):if type(m) == nn.Linear:nn.init.normal_(m.weight, std=0.01)net.apply(init_weights);
3.7.2 重新审视Softmax的实现
在交叉熵损失函数中传递未归一化的预测,并同时计算 softmax 及其对数
loss = nn.CrossEntropyLoss(reduction='none')
3.7.3 优化算法
在这里,我们使用学习率为 0.1 的小批量随机梯度下降作为优化算法。
trainer = torch.optim.SGD(net.parameters(), lr=0.1)
3.7.4 训练
接下来我们调用 3.6 节中定义的训练函数来训练模型。
num_epochs = 10
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, trainer)
--------------- 结束 ---------------
注:本文为个人学习笔记,仅供大家参考学习,不得用于任何商业目的。如有侵权,请联系作者删除。