当前位置: 首页 > news >正文

第四十六天打卡

通道注意力(SE注意力)

知识点回顾:

  1. 不同CNN层的特征图:不同通道的特征图
  2. 什么是注意力:注意力家族,类似于动物园,都是不同的模块,好不好试了才知道。
  3. 通道注意力:模型的定义和插入的位置
  4. 通道注意力后的特征图和热力图

未添加前的计算过程:

import torch
import torch.nn as nn
import torch.optim as optim
from torchvision import datasets, transforms
from torch.utils.data import DataLoader
import matplotlib.pyplot as plt
import numpy as np# 设置中文字体支持
plt.rcParams["font.family"] = ["SimHei"]
plt.rcParams['axes.unicode_minus'] = False  # 解决负号显示问题# 检查GPU是否可用
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
print(f"使用设备: {device}")# 1. 数据预处理
# 训练集:使用多种数据增强方法提高模型泛化能力
train_transform = transforms.Compose([# 随机裁剪图像,从原图中随机截取32x32大小的区域transforms.RandomCrop(32, padding=4),# 随机水平翻转图像(概率0.5)transforms.RandomHorizontalFlip(),# 随机颜色抖动:亮度、对比度、饱和度和色调随机变化transforms.ColorJitter(brightness=0.2, contrast=0.2, saturation=0.2, hue=0.1),# 随机旋转图像(最大角度15度)transforms.RandomRotation(15),# 将PIL图像或numpy数组转换为张量transforms.ToTensor(),# 标准化处理:每个通道的均值和标准差,使数据分布更合理transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010))
])# 测试集:仅进行必要的标准化,保持数据原始特性,标准化不损失数据信息,可还原
test_transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.4914, 0.4822, 0.4465), (0.2023, 0.1994, 0.2010))
])# 2. 加载CIFAR-10数据集
train_dataset = datasets.CIFAR10(root='./data',train=True,download=True,transform=train_transform  # 使用增强后的预处理
)test_dataset = datasets.CIFAR10(root='./data',train=False,transform=test_transform  # 测试集不使用增强
)# 3. 创建数据加载器
batch_size = 64
train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)
# 4. 定义CNN模型的定义(替代原MLP)
class CNN(nn.Module):def __init__(self):super(CNN, self).__init__()  # 继承父类初始化# ---------------------- 第一个卷积块 ----------------------# 卷积层1:输入3通道(RGB),输出32个特征图,卷积核3x3,边缘填充1像素self.conv1 = nn.Conv2d(in_channels=3,       # 输入通道数(图像的RGB通道)out_channels=32,     # 输出通道数(生成32个新特征图)kernel_size=3,       # 卷积核尺寸(3x3像素)padding=1            # 边缘填充1像素,保持输出尺寸与输入相同)# 批量归一化层:对32个输出通道进行归一化,加速训练self.bn1 = nn.BatchNorm2d(num_features=32)# ReLU激活函数:引入非线性,公式:max(0, x)self.relu1 = nn.ReLU()# 最大池化层:窗口2x2,步长2,特征图尺寸减半(32x32→16x16)self.pool1 = nn.MaxPool2d(kernel_size=2, stride=2)  # stride默认等于kernel_size# ---------------------- 第二个卷积块 ----------------------# 卷积层2:输入32通道(来自conv1的输出),输出64通道self.conv2 = nn.Conv2d(in_channels=32,      # 输入通道数(前一层的输出通道数)out_channels=64,     # 输出通道数(特征图数量翻倍)kernel_size=3,       # 卷积核尺寸不变padding=1            # 保持尺寸:16x16→16x16(卷积后)→8x8(池化后))self.bn2 = nn.BatchNorm2d(num_features=64)self.relu2 = nn.ReLU()self.pool2 = nn.MaxPool2d(kernel_size=2)  # 尺寸减半:16x16→8x8# ---------------------- 第三个卷积块 ----------------------# 卷积层3:输入64通道,输出128通道self.conv3 = nn.Conv2d(in_channels=64,      # 输入通道数(前一层的输出通道数)out_channels=128,    # 输出通道数(特征图数量再次翻倍)kernel_size=3,padding=1            # 保持尺寸:8x8→8x8(卷积后)→4x4(池化后))self.bn3 = nn.BatchNorm2d(num_features=128)self.relu3 = nn.ReLU()  # 复用激活函数对象(节省内存)self.pool3 = nn.MaxPool2d(kernel_size=2)  # 尺寸减半:8x8→4x4# ---------------------- 全连接层(分类器) ----------------------# 计算展平后的特征维度:128通道 × 4x4尺寸 = 128×16=2048维self.fc1 = nn.Linear(in_features=128 * 4 * 4,  # 输入维度(卷积层输出的特征数)out_features=512          # 输出维度(隐藏层神经元数))# Dropout层:训练时随机丢弃50%神经元,防止过拟合self.dropout = nn.Dropout(p=0.5)# 输出层:将512维特征映射到10个类别(CIFAR-10的类别数)self.fc2 = nn.Linear(in_features=512, out_features=10)def forward(self, x):# 输入尺寸:[batch_size, 3, 32, 32](batch_size=批量大小,3=通道数,32x32=图像尺寸)# ---------- 卷积块1处理 ----------x = self.conv1(x)       # 卷积后尺寸:[batch_size, 32, 32, 32](padding=1保持尺寸)x = self.bn1(x)         # 批量归一化,不改变尺寸x = self.relu1(x)       # 激活函数,不改变尺寸x = self.pool1(x)       # 池化后尺寸:[batch_size, 32, 16, 16](32→16是因为池化窗口2x2)# ---------- 卷积块2处理 ----------x = self.conv2(x)       # 卷积后尺寸:[batch_size, 64, 16, 16](padding=1保持尺寸)x = self.bn2(x)x = self.relu2(x)x = self.pool2(x)       # 池化后尺寸:[batch_size, 64, 8, 8]# ---------- 卷积块3处理 ----------x = self.conv3(x)       # 卷积后尺寸:[batch_size, 128, 8, 8](padding=1保持尺寸)x = self.bn3(x)x = self.relu3(x)x = self.pool3(x)       # 池化后尺寸:[batch_size, 128, 4, 4]# ---------- 展平与全连接层 ----------# 将多维特征图展平为一维向量:[batch_size, 128*4*4] = [batch_size, 2048]x = x.view(-1, 128 * 4 * 4)  # -1自动计算批量维度,保持批量大小不变x = self.fc1(x)           # 全连接层:2048→512,尺寸变为[batch_size, 512]x = self.relu3(x)         # 激活函数(复用relu3,与卷积块3共用)x = self.dropout(x)       # Dropout随机丢弃神经元,不改变尺寸x = self.fc2(x)           # 全连接层:512→10,尺寸变为[batch_size, 10](未激活,直接输出logits)return x  # 输出未经过Softmax的logits,适用于交叉熵损失函数# 初始化模型
model = CNN()
model = model.to(device)  # 将模型移至GPU(如果可用)criterion = nn.CrossEntropyLoss()  # 交叉熵损失函数
optimizer = optim.Adam(model.parameters(), lr=0.001)  # Adam优化器# 引入学习率调度器,在训练过程中动态调整学习率--训练初期使用较大的 LR 快速降低损失,训练后期使用较小的 LR 更精细地逼近全局最优解。
# 在每个 epoch 结束后,需要手动调用调度器来更新学习率,可以在训练过程中调用 scheduler.step()
scheduler = optim.lr_scheduler.ReduceLROnPlateau(optimizer,        # 指定要控制的优化器(这里是Adam)mode='min',       # 监测的指标是"最小化"(如损失函数)patience=3,       # 如果连续3个epoch指标没有改善,才降低LRfactor=0.5        # 降低LR的比例(新LR = 旧LR × 0.5)
)
# 5. 训练模型(记录每个 iteration 的损失)
def train(model, train_loader, test_loader, criterion, optimizer, scheduler, device, epochs):model.train()  # 设置为训练模式# 记录每个 iteration 的损失all_iter_losses = []  # 存储所有 batch 的损失iter_indices = []     # 存储 iteration 序号# 记录每个 epoch 的准确率和损失train_acc_history = []test_acc_history = []train_loss_history = []test_loss_history = []for epoch in range(epochs):running_loss = 0.0correct = 0total = 0for batch_idx, (data, target) in enumerate(train_loader):data, target = data.to(device), target.to(device)  # 移至GPUoptimizer.zero_grad()  # 梯度清零output = model(data)  # 前向传播loss = criterion(output, target)  # 计算损失loss.backward()  # 反向传播optimizer.step()  # 更新参数# 记录当前 iteration 的损失iter_loss = loss.item()all_iter_losses.append(iter_loss)iter_indices.append(epoch * len(train_loader) + batch_idx + 1)# 统计准确率和损失running_loss += iter_loss_, predicted = output.max(1)total += target.size(0)correct += predicted.eq(target).sum().item()# 每100个批次打印一次训练信息if (batch_idx + 1) % 100 == 0:print(f'Epoch: {epoch+1}/{epochs} | Batch: {batch_idx+1}/{len(train_loader)} 'f'| 单Batch损失: {iter_loss:.4f} | 累计平均损失: {running_loss/(batch_idx+1):.4f}')# 计算当前epoch的平均训练损失和准确率epoch_train_loss = running_loss / len(train_loader)epoch_train_acc = 100. * correct / totaltrain_acc_history.append(epoch_train_acc)train_loss_history.append(epoch_train_loss)# 测试阶段model.eval()  # 设置为评估模式test_loss = 0correct_test = 0total_test = 0with torch.no_grad():for data, target in test_loader:data, target = data.to(device), target.to(device)output = model(data)test_loss += criterion(output, target).item()_, predicted = output.max(1)total_test += target.size(0)correct_test += predicted.eq(target).sum().item()epoch_test_loss = test_loss / len(test_loader)epoch_test_acc = 100. * correct_test / total_testtest_acc_history.append(epoch_test_acc)test_loss_history.append(epoch_test_loss)# 更新学习率调度器scheduler.step(epoch_test_loss)print(f'Epoch {epoch+1}/{epochs} 完成 | 训练准确率: {epoch_train_acc:.2f}% | 测试准确率: {epoch_test_acc:.2f}%')# 绘制所有 iteration 的损失曲线plot_iter_losses(all_iter_losses, iter_indices)# 绘制每个 epoch 的准确率和损失曲线plot_epoch_metrics(train_acc_history, test_acc_history, train_loss_history, test_loss_history)return epoch_test_acc  # 返回最终测试准确率# 6. 绘制每个 iteration 的损失曲线
def plot_iter_losses(losses, indices):plt.figure(figsize=(10, 4))plt.plot(indices, losses, 'b-', alpha=0.7, label='Iteration Loss')plt.xlabel('Iteration(Batch序号)')plt.ylabel('损失值')plt.title('每个 Iteration 的训练损失')plt.legend()plt.grid(True)plt.tight_layout()plt.show()# 7. 绘制每个 epoch 的准确率和损失曲线
def plot_epoch_metrics(train_acc, test_acc, train_loss, test_loss):epochs = range(1, len(train_acc) + 1)plt.figure(figsize=(12, 4))# 绘制准确率曲线plt.subplot(1, 2, 1)plt.plot(epochs, train_acc, 'b-', label='训练准确率')plt.plot(epochs, test_acc, 'r-', label='测试准确率')plt.xlabel('Epoch')plt.ylabel('准确率 (%)')plt.title('训练和测试准确率')plt.legend()plt.grid(True)# 绘制损失曲线plt.subplot(1, 2, 2)plt.plot(epochs, train_loss, 'b-', label='训练损失')plt.plot(epochs, test_loss, 'r-', label='测试损失')plt.xlabel('Epoch')plt.ylabel('损失值')plt.title('训练和测试损失')plt.legend()plt.grid(True)plt.tight_layout()plt.show()# 8. 执行训练和测试
epochs = 50  # 增加训练轮次为了确保收敛
print("开始使用CNN训练模型...")
final_accuracy = train(model, train_loader, test_loader, criterion, optimizer, scheduler, device, epochs)
print(f"训练完成!最终测试准确率: {final_accuracy:.2f}%")# # 保存模型
# torch.save(model.state_dict(), 'cifar10_cnn_model.pth')
# print("模型已保存为: cifar10_cnn_model.pth")def visualize_feature_maps(model, test_loader, device, layer_names, num_images=3, num_channels=9):"""可视化指定层的特征图(修复循环冗余问题)参数:model: 模型test_loader: 测试数据加载器layer_names: 要可视化的层名称(如['conv1', 'conv2', 'conv3'])num_images: 可视化的图像总数num_channels: 每个图像显示的通道数(取前num_channels个通道)"""model.eval()  # 设置为评估模式class_names = ['飞机', '汽车', '鸟', '猫', '鹿', '狗', '青蛙', '马', '船', '卡车']# 从测试集加载器中提取指定数量的图像(避免嵌套循环)images_list, labels_list = [], []for images, labels in test_loader:images_list.append(images)labels_list.append(labels)if len(images_list) * test_loader.batch_size >= num_images:break# 拼接并截取到目标数量images = torch.cat(images_list, dim=0)[:num_images].to(device)labels = torch.cat(labels_list, dim=0)[:num_images].to(device)with torch.no_grad():# 存储各层特征图feature_maps = {}# 保存钩子句柄hooks = []# 定义钩子函数,捕获指定层的输出def hook(module, input, output, name):feature_maps[name] = output.cpu()  # 保存特征图到字典# 为每个目标层注册钩子,并保存钩子句柄for name in layer_names:module = getattr(model, name)hook_handle = module.register_forward_hook(lambda m, i, o, n=name: hook(m, i, o, n))hooks.append(hook_handle)# 前向传播触发钩子_ = model(images)# 正确移除钩子for hook_handle in hooks:hook_handle.remove()# 可视化每个图像的各层特征图(仅一层循环)for img_idx in range(num_images):img = images[img_idx].cpu().permute(1, 2, 0).numpy()# 反标准化处理(恢复原始像素值)img = img * np.array([0.2023, 0.1994, 0.2010]).reshape(1, 1, 3) + np.array([0.4914, 0.4822, 0.4465]).reshape(1, 1, 3)img = np.clip(img, 0, 1)  # 确保像素值在[0,1]范围内# 创建子图num_layers = len(layer_names)fig, axes = plt.subplots(1, num_layers + 1, figsize=(4 * (num_layers + 1), 4))# 显示原始图像axes[0].imshow(img)axes[0].set_title(f'原始图像\n类别: {class_names[labels[img_idx]]}')axes[0].axis('off')# 显示各层特征图for layer_idx, layer_name in enumerate(layer_names):fm = feature_maps[layer_name][img_idx]  # 取第img_idx张图像的特征图fm = fm[:num_channels]  # 仅取前num_channels个通道num_rows = int(np.sqrt(num_channels))num_cols = num_channels // num_rows if num_rows != 0 else 1# 创建子图网格layer_ax = axes[layer_idx + 1]layer_ax.set_title(f'{layer_name}特征图 \n')# 加个换行让文字分离上去layer_ax.axis('off')  # 关闭大子图的坐标轴# 在大子图内创建小网格for ch_idx, channel in enumerate(fm):ax = layer_ax.inset_axes([ch_idx % num_cols / num_cols, (num_rows - 1 - ch_idx // num_cols) / num_rows, 1/num_cols, 1/num_rows])ax.imshow(channel.numpy(), cmap='viridis')ax.set_title(f'通道 {ch_idx + 1}')ax.axis('off')plt.tight_layout()plt.show()# 调用示例(按需修改参数)
layer_names = ['conv1', 'conv2', 'conv3']
visualize_feature_maps(model=model,test_loader=test_loader,device=device,layer_names=layer_names,num_images=5,  # 可视化5张测试图像 → 输出5张大图num_channels=9   # 每张图像显示前9个通道的特征图
)
使用设备: cpu
开始使用CNN训练模型...
Epoch: 1/50 | Batch: 100/782 | 单Batch损失: 1.8539 | 累计平均损失: 2.0268
Epoch: 1/50 | Batch: 200/782 | 单Batch损失: 1.8638 | 累计平均损失: 1.8953
Epoch: 1/50 | Batch: 300/782 | 单Batch损失: 1.5713 | 累计平均损失: 1.8195
Epoch: 1/50 | Batch: 400/782 | 单Batch损失: 1.5816 | 累计平均损失: 1.7708
Epoch: 1/50 | Batch: 500/782 | 单Batch损失: 1.7706 | 累计平均损失: 1.7368
Epoch: 1/50 | Batch: 600/782 | 单Batch损失: 1.6522 | 累计平均损失: 1.7073
Epoch: 1/50 | Batch: 700/782 | 单Batch损失: 1.3720 | 累计平均损失: 1.6835
Epoch 1/50 完成 | 训练准确率: 39.02% | 测试准确率: 51.93%
Epoch: 2/50 | Batch: 100/782 | 单Batch损失: 1.3814 | 累计平均损失: 1.4169
Epoch: 2/50 | Batch: 200/782 | 单Batch损失: 1.3478 | 累计平均损失: 1.3808
Epoch: 2/50 | Batch: 300/782 | 单Batch损失: 1.0885 | 累计平均损失: 1.3510
Epoch: 2/50 | Batch: 400/782 | 单Batch损失: 1.3697 | 累计平均损失: 1.3262
Epoch: 2/50 | Batch: 500/782 | 单Batch损失: 1.3418 | 累计平均损失: 1.3032
Epoch: 2/50 | Batch: 600/782 | 单Batch损失: 1.1939 | 累计平均损失: 1.2870
Epoch: 2/50 | Batch: 700/782 | 单Batch损失: 1.1860 | 累计平均损失: 1.2700
Epoch 2/50 完成 | 训练准确率: 54.34% | 测试准确率: 66.25%
Epoch: 3/50 | Batch: 100/782 | 单Batch损失: 1.1368 | 累计平均损失: 1.1452
Epoch: 3/50 | Batch: 200/782 | 单Batch损失: 0.9733 | 累计平均损失: 1.1278
Epoch: 3/50 | Batch: 300/782 | 单Batch损失: 1.1260 | 累计平均损失: 1.1159
Epoch: 3/50 | Batch: 400/782 | 单Batch损失: 1.0878 | 累计平均损失: 1.1081
Epoch: 3/50 | Batch: 500/782 | 单Batch损失: 0.8611 | 累计平均损失: 1.0984
Epoch: 3/50 | Batch: 600/782 | 单Batch损失: 1.0862 | 累计平均损失: 1.0909
Epoch: 3/50 | Batch: 700/782 | 单Batch损失: 0.9239 | 累计平均损失: 1.0838
Epoch 3/50 完成 | 训练准确率: 61.44% | 测试准确率: 70.01%
Epoch: 4/50 | Batch: 100/782 | 单Batch损失: 0.9884 | 累计平均损失: 1.0094
Epoch: 4/50 | Batch: 200/782 | 单Batch损失: 1.1597 | 累计平均损失: 1.0034
Epoch: 4/50 | Batch: 300/782 | 单Batch损失: 0.8105 | 累计平均损失: 0.9934
Epoch: 4/50 | Batch: 400/782 | 单Batch损失: 1.0249 | 累计平均损失: 0.9882
Epoch: 4/50 | Batch: 500/782 | 单Batch损失: 0.9399 | 累计平均损失: 0.9859
Epoch: 4/50 | Batch: 600/782 | 单Batch损失: 0.9402 | 累计平均损失: 0.9808
Epoch: 4/50 | Batch: 700/782 | 单Batch损失: 1.2411 | 累计平均损失: 0.9801
Epoch 4/50 完成 | 训练准确率: 65.21% | 测试准确率: 71.28%
Epoch: 5/50 | Batch: 100/782 | 单Batch损失: 0.9199 | 累计平均损失: 0.9320
Epoch: 5/50 | Batch: 200/782 | 单Batch损失: 0.8564 | 累计平均损失: 0.9236
Epoch: 5/50 | Batch: 300/782 | 单Batch损失: 0.8248 | 累计平均损失: 0.9306
Epoch: 5/50 | Batch: 400/782 | 单Batch损失: 0.7376 | 累计平均损失: 0.9271
Epoch: 5/50 | Batch: 500/782 | 单Batch损失: 1.0709 | 累计平均损失: 0.9262
Epoch: 5/50 | Batch: 600/782 | 单Batch损失: 0.6783 | 累计平均损失: 0.9203
Epoch: 5/50 | Batch: 700/782 | 单Batch损失: 0.8396 | 累计平均损失: 0.9191
Epoch 5/50 完成 | 训练准确率: 67.90% | 测试准确率: 74.32%
Epoch: 6/50 | Batch: 100/782 | 单Batch损失: 0.9785 | 累计平均损失: 0.8872
Epoch: 6/50 | Batch: 200/782 | 单Batch损失: 0.8902 | 累计平均损失: 0.8816
Epoch: 6/50 | Batch: 300/782 | 单Batch损失: 0.8828 | 累计平均损失: 0.8811
Epoch: 6/50 | Batch: 400/782 | 单Batch损失: 0.7679 | 累计平均损失: 0.8793
Epoch: 6/50 | Batch: 500/782 | 单Batch损失: 0.8801 | 累计平均损失: 0.8768
Epoch: 6/50 | Batch: 600/782 | 单Batch损失: 0.9959 | 累计平均损失: 0.8774
Epoch: 6/50 | Batch: 700/782 | 单Batch损失: 0.9286 | 累计平均损失: 0.8773
Epoch 6/50 完成 | 训练准确率: 69.15% | 测试准确率: 75.02%
Epoch: 7/50 | Batch: 100/782 | 单Batch损失: 1.0258 | 累计平均损失: 0.8453
Epoch: 7/50 | Batch: 200/782 | 单Batch损失: 0.6134 | 累计平均损失: 0.8398
Epoch: 7/50 | Batch: 300/782 | 单Batch损失: 0.7865 | 累计平均损失: 0.8327
Epoch: 7/50 | Batch: 400/782 | 单Batch损失: 0.9811 | 累计平均损失: 0.8390
Epoch: 7/50 | Batch: 500/782 | 单Batch损失: 0.9686 | 累计平均损失: 0.8358
Epoch: 7/50 | Batch: 600/782 | 单Batch损失: 0.9512 | 累计平均损失: 0.8295
Epoch: 7/50 | Batch: 700/782 | 单Batch损失: 0.8695 | 累计平均损失: 0.8296
Epoch 7/50 完成 | 训练准确率: 70.90% | 测试准确率: 75.37%
Epoch: 8/50 | Batch: 100/782 | 单Batch损失: 0.5723 | 累计平均损失: 0.7976
Epoch: 8/50 | Batch: 200/782 | 单Batch损失: 0.6787 | 累计平均损失: 0.7980
Epoch: 8/50 | Batch: 300/782 | 单Batch损失: 0.9475 | 累计平均损失: 0.8070
Epoch: 8/50 | Batch: 400/782 | 单Batch损失: 0.7365 | 累计平均损失: 0.8067
Epoch: 8/50 | Batch: 500/782 | 单Batch损失: 0.7936 | 累计平均损失: 0.8063
Epoch: 8/50 | Batch: 600/782 | 单Batch损失: 0.8557 | 累计平均损失: 0.8058
Epoch: 8/50 | Batch: 700/782 | 单Batch损失: 0.6426 | 累计平均损失: 0.8029
Epoch 8/50 完成 | 训练准确率: 71.71% | 测试准确率: 76.15%
Epoch: 9/50 | Batch: 100/782 | 单Batch损失: 1.0393 | 累计平均损失: 0.7635
Epoch: 9/50 | Batch: 200/782 | 单Batch损失: 0.9073 | 累计平均损失: 0.7807
Epoch: 9/50 | Batch: 300/782 | 单Batch损失: 0.7449 | 累计平均损失: 0.7763
Epoch: 9/50 | Batch: 400/782 | 单Batch损失: 0.8752 | 累计平均损失: 0.7749
Epoch: 9/50 | Batch: 500/782 | 单Batch损失: 0.7307 | 累计平均损失: 0.7752
Epoch: 9/50 | Batch: 600/782 | 单Batch损失: 0.6169 | 累计平均损失: 0.7747
Epoch: 9/50 | Batch: 700/782 | 单Batch损失: 0.8747 | 累计平均损失: 0.7758
Epoch 9/50 完成 | 训练准确率: 72.71% | 测试准确率: 77.26%
Epoch: 10/50 | Batch: 100/782 | 单Batch损失: 1.0480 | 累计平均损失: 0.7471
Epoch: 10/50 | Batch: 200/782 | 单Batch损失: 0.6623 | 累计平均损失: 0.7597
Epoch: 10/50 | Batch: 300/782 | 单Batch损失: 0.8468 | 累计平均损失: 0.7650
Epoch: 10/50 | Batch: 400/782 | 单Batch损失: 0.9976 | 累计平均损失: 0.7689
Epoch: 10/50 | Batch: 500/782 | 单Batch损失: 0.5805 | 累计平均损失: 0.7666
Epoch: 10/50 | Batch: 600/782 | 单Batch损失: 0.9246 | 累计平均损失: 0.7629
Epoch: 10/50 | Batch: 700/782 | 单Batch损失: 0.6942 | 累计平均损失: 0.7612
Epoch 10/50 完成 | 训练准确率: 73.17% | 测试准确率: 77.55%
Epoch: 11/50 | Batch: 100/782 | 单Batch损失: 0.6047 | 累计平均损失: 0.7467
Epoch: 11/50 | Batch: 200/782 | 单Batch损失: 0.7159 | 累计平均损失: 0.7444
Epoch: 11/50 | Batch: 300/782 | 单Batch损失: 0.8179 | 累计平均损失: 0.7398
Epoch: 11/50 | Batch: 400/782 | 单Batch损失: 0.5692 | 累计平均损失: 0.7327
Epoch: 11/50 | Batch: 500/782 | 单Batch损失: 0.7060 | 累计平均损失: 0.7322
Epoch: 11/50 | Batch: 600/782 | 单Batch损失: 0.7626 | 累计平均损失: 0.7320
Epoch: 11/50 | Batch: 700/782 | 单Batch损失: 0.7075 | 累计平均损失: 0.7321
Epoch 11/50 完成 | 训练准确率: 74.30% | 测试准确率: 78.45%
Epoch: 12/50 | Batch: 100/782 | 单Batch损失: 0.6591 | 累计平均损失: 0.7149
Epoch: 12/50 | Batch: 200/782 | 单Batch损失: 0.6778 | 累计平均损失: 0.7116
Epoch: 12/50 | Batch: 300/782 | 单Batch损失: 0.6202 | 累计平均损失: 0.7181
Epoch: 12/50 | Batch: 400/782 | 单Batch损失: 1.0876 | 累计平均损失: 0.7253
Epoch: 12/50 | Batch: 500/782 | 单Batch损失: 0.6302 | 累计平均损失: 0.7219
Epoch: 12/50 | Batch: 600/782 | 单Batch损失: 0.7123 | 累计平均损失: 0.7233
Epoch: 12/50 | Batch: 700/782 | 单Batch损失: 1.0204 | 累计平均损失: 0.7240
Epoch 12/50 完成 | 训练准确率: 74.65% | 测试准确率: 78.17%
Epoch: 13/50 | Batch: 100/782 | 单Batch损失: 0.6519 | 累计平均损失: 0.7068
Epoch: 13/50 | Batch: 200/782 | 单Batch损失: 0.7013 | 累计平均损失: 0.7047
Epoch: 13/50 | Batch: 300/782 | 单Batch损失: 1.0340 | 累计平均损失: 0.7107
Epoch: 13/50 | Batch: 400/782 | 单Batch损失: 0.8141 | 累计平均损失: 0.7153
Epoch: 13/50 | Batch: 500/782 | 单Batch损失: 0.7780 | 累计平均损失: 0.7124
Epoch: 13/50 | Batch: 600/782 | 单Batch损失: 0.6295 | 累计平均损失: 0.7123
Epoch: 13/50 | Batch: 700/782 | 单Batch损失: 0.6402 | 累计平均损失: 0.7070
Epoch 13/50 完成 | 训练准确率: 75.41% | 测试准确率: 77.77%
Epoch: 14/50 | Batch: 100/782 | 单Batch损失: 0.8706 | 累计平均损失: 0.6945
Epoch: 14/50 | Batch: 200/782 | 单Batch损失: 0.5825 | 累计平均损失: 0.6967
Epoch: 14/50 | Batch: 300/782 | 单Batch损失: 0.5823 | 累计平均损失: 0.7019
Epoch: 14/50 | Batch: 400/782 | 单Batch损失: 0.5279 | 累计平均损失: 0.6954
Epoch: 14/50 | Batch: 500/782 | 单Batch损失: 0.5484 | 累计平均损失: 0.6961
Epoch: 14/50 | Batch: 600/782 | 单Batch损失: 0.9330 | 累计平均损失: 0.6951
Epoch: 14/50 | Batch: 700/782 | 单Batch损失: 0.6501 | 累计平均损失: 0.6969
Epoch 14/50 完成 | 训练准确率: 75.53% | 测试准确率: 79.26%
Epoch: 15/50 | Batch: 100/782 | 单Batch损失: 0.7403 | 累计平均损失: 0.6968
Epoch: 15/50 | Batch: 200/782 | 单Batch损失: 0.5562 | 累计平均损失: 0.6837
Epoch: 15/50 | Batch: 300/782 | 单Batch损失: 0.9430 | 累计平均损失: 0.6854
Epoch: 15/50 | Batch: 400/782 | 单Batch损失: 0.6468 | 累计平均损失: 0.6837
Epoch: 15/50 | Batch: 500/782 | 单Batch损失: 0.7006 | 累计平均损失: 0.6873
Epoch: 15/50 | Batch: 600/782 | 单Batch损失: 0.7594 | 累计平均损失: 0.6857
Epoch: 15/50 | Batch: 700/782 | 单Batch损失: 0.7708 | 累计平均损失: 0.6876
Epoch 15/50 完成 | 训练准确率: 76.05% | 测试准确率: 79.30%
Epoch: 16/50 | Batch: 100/782 | 单Batch损失: 0.4919 | 累计平均损失: 0.6672
Epoch: 16/50 | Batch: 200/782 | 单Batch损失: 0.6408 | 累计平均损失: 0.6614
Epoch: 16/50 | Batch: 300/782 | 单Batch损失: 0.6131 | 累计平均损失: 0.6698
Epoch: 16/50 | Batch: 400/782 | 单Batch损失: 0.6118 | 累计平均损失: 0.6677
Epoch: 16/50 | Batch: 500/782 | 单Batch损失: 0.6467 | 累计平均损失: 0.6764
Epoch: 16/50 | Batch: 600/782 | 单Batch损失: 0.7420 | 累计平均损失: 0.6736
Epoch: 16/50 | Batch: 700/782 | 单Batch损失: 0.8059 | 累计平均损失: 0.6745
Epoch 16/50 完成 | 训练准确率: 76.52% | 测试准确率: 80.07%
Epoch: 17/50 | Batch: 100/782 | 单Batch损失: 0.5687 | 累计平均损失: 0.6512
Epoch: 17/50 | Batch: 200/782 | 单Batch损失: 0.6869 | 累计平均损失: 0.6592
Epoch: 17/50 | Batch: 300/782 | 单Batch损失: 0.5542 | 累计平均损失: 0.6649
Epoch: 17/50 | Batch: 400/782 | 单Batch损失: 0.7179 | 累计平均损失: 0.6650
Epoch: 17/50 | Batch: 500/782 | 单Batch损失: 0.4249 | 累计平均损失: 0.6653
Epoch: 17/50 | Batch: 600/782 | 单Batch损失: 0.5819 | 累计平均损失: 0.6695
Epoch: 17/50 | Batch: 700/782 | 单Batch损失: 0.4027 | 累计平均损失: 0.6683
Epoch 17/50 完成 | 训练准确率: 76.77% | 测试准确率: 79.61%
Epoch: 18/50 | Batch: 100/782 | 单Batch损失: 0.7578 | 累计平均损失: 0.6631
Epoch: 18/50 | Batch: 200/782 | 单Batch损失: 0.7089 | 累计平均损失: 0.6611
Epoch: 18/50 | Batch: 300/782 | 单Batch损失: 0.7038 | 累计平均损失: 0.6618
Epoch: 18/50 | Batch: 400/782 | 单Batch损失: 0.6911 | 累计平均损失: 0.6581
Epoch: 18/50 | Batch: 500/782 | 单Batch损失: 0.6647 | 累计平均损失: 0.6526
Epoch: 18/50 | Batch: 600/782 | 单Batch损失: 0.8129 | 累计平均损失: 0.6520
Epoch: 18/50 | Batch: 700/782 | 单Batch损失: 0.7677 | 累计平均损失: 0.6537
Epoch 18/50 完成 | 训练准确率: 77.11% | 测试准确率: 79.66%
Epoch: 19/50 | Batch: 100/782 | 单Batch损失: 0.7401 | 累计平均损失: 0.6281
Epoch: 19/50 | Batch: 200/782 | 单Batch损失: 0.6489 | 累计平均损失: 0.6344
Epoch: 19/50 | Batch: 300/782 | 单Batch损失: 0.4571 | 累计平均损失: 0.6304
Epoch: 19/50 | Batch: 400/782 | 单Batch损失: 0.7168 | 累计平均损失: 0.6347
Epoch: 19/50 | Batch: 500/782 | 单Batch损失: 0.8499 | 累计平均损失: 0.6380
Epoch: 19/50 | Batch: 600/782 | 单Batch损失: 0.6468 | 累计平均损失: 0.6373
Epoch: 19/50 | Batch: 700/782 | 单Batch损失: 0.7811 | 累计平均损失: 0.6413
Epoch 19/50 完成 | 训练准确率: 77.59% | 测试准确率: 80.51%
Epoch: 20/50 | Batch: 100/782 | 单Batch损失: 0.6995 | 累计平均损失: 0.6177
Epoch: 20/50 | Batch: 200/782 | 单Batch损失: 0.8608 | 累计平均损失: 0.6287
Epoch: 20/50 | Batch: 300/782 | 单Batch损失: 0.7941 | 累计平均损失: 0.6363
Epoch: 20/50 | Batch: 400/782 | 单Batch损失: 0.5888 | 累计平均损失: 0.6306
Epoch: 20/50 | Batch: 500/782 | 单Batch损失: 0.5659 | 累计平均损失: 0.6309
Epoch: 20/50 | Batch: 600/782 | 单Batch损失: 0.4776 | 累计平均损失: 0.6331
Epoch: 20/50 | Batch: 700/782 | 单Batch损失: 0.6303 | 累计平均损失: 0.6331
Epoch 20/50 完成 | 训练准确率: 77.87% | 测试准确率: 80.89%
Epoch: 21/50 | Batch: 100/782 | 单Batch损失: 0.4719 | 累计平均损失: 0.6032
Epoch: 21/50 | Batch: 200/782 | 单Batch损失: 0.7351 | 累计平均损失: 0.6194
Epoch: 21/50 | Batch: 300/782 | 单Batch损失: 0.5383 | 累计平均损失: 0.6229
Epoch: 21/50 | Batch: 400/782 | 单Batch损失: 0.4895 | 累计平均损失: 0.6169
Epoch: 21/50 | Batch: 500/782 | 单Batch损失: 0.6693 | 累计平均损失: 0.6237
Epoch: 21/50 | Batch: 600/782 | 单Batch损失: 0.7677 | 累计平均损失: 0.6250
Epoch: 21/50 | Batch: 700/782 | 单Batch损失: 0.5635 | 累计平均损失: 0.6258
Epoch 21/50 完成 | 训练准确率: 78.27% | 测试准确率: 80.38%
Epoch: 22/50 | Batch: 100/782 | 单Batch损失: 0.5157 | 累计平均损失: 0.6428
Epoch: 22/50 | Batch: 200/782 | 单Batch损失: 0.6294 | 累计平均损失: 0.6304
Epoch: 22/50 | Batch: 300/782 | 单Batch损失: 0.6815 | 累计平均损失: 0.6201
Epoch: 22/50 | Batch: 400/782 | 单Batch损失: 0.6121 | 累计平均损失: 0.6171
Epoch: 22/50 | Batch: 500/782 | 单Batch损失: 0.5409 | 累计平均损失: 0.6207
Epoch: 22/50 | Batch: 600/782 | 单Batch损失: 0.7161 | 累计平均损失: 0.6229
Epoch: 22/50 | Batch: 700/782 | 单Batch损失: 0.5455 | 累计平均损失: 0.6191
Epoch 22/50 完成 | 训练准确率: 78.24% | 测试准确率: 81.05%
Epoch: 23/50 | Batch: 100/782 | 单Batch损失: 0.5670 | 累计平均损失: 0.6112
Epoch: 23/50 | Batch: 200/782 | 单Batch损失: 0.8385 | 累计平均损失: 0.6131
Epoch: 23/50 | Batch: 300/782 | 单Batch损失: 0.7163 | 累计平均损失: 0.6088
Epoch: 23/50 | Batch: 400/782 | 单Batch损失: 0.4712 | 累计平均损失: 0.6129
Epoch: 23/50 | Batch: 500/782 | 单Batch损失: 0.7712 | 累计平均损失: 0.6132
Epoch: 23/50 | Batch: 600/782 | 单Batch损失: 0.5998 | 累计平均损失: 0.6127
Epoch: 23/50 | Batch: 700/782 | 单Batch损失: 0.6282 | 累计平均损失: 0.6126
Epoch 23/50 完成 | 训练准确率: 78.42% | 测试准确率: 81.23%
Epoch: 24/50 | Batch: 100/782 | 单Batch损失: 0.5343 | 累计平均损失: 0.6257
Epoch: 24/50 | Batch: 200/782 | 单Batch损失: 0.5420 | 累计平均损失: 0.6201
Epoch: 24/50 | Batch: 300/782 | 单Batch损失: 0.8932 | 累计平均损失: 0.6172
Epoch: 24/50 | Batch: 400/782 | 单Batch损失: 0.7989 | 累计平均损失: 0.6123
Epoch: 24/50 | Batch: 500/782 | 单Batch损失: 0.5696 | 累计平均损失: 0.6118
Epoch: 24/50 | Batch: 600/782 | 单Batch损失: 0.5766 | 累计平均损失: 0.6093
Epoch: 24/50 | Batch: 700/782 | 单Batch损失: 0.5001 | 累计平均损失: 0.6078
Epoch 24/50 完成 | 训练准确率: 78.81% | 测试准确率: 80.19%
Epoch: 25/50 | Batch: 100/782 | 单Batch损失: 0.6670 | 累计平均损失: 0.5957
Epoch: 25/50 | Batch: 200/782 | 单Batch损失: 0.6242 | 累计平均损失: 0.6117
Epoch: 25/50 | Batch: 300/782 | 单Batch损失: 0.6651 | 累计平均损失: 0.6002
Epoch: 25/50 | Batch: 400/782 | 单Batch损失: 0.4729 | 累计平均损失: 0.5986
Epoch: 25/50 | Batch: 500/782 | 单Batch损失: 0.5653 | 累计平均损失: 0.5986
Epoch: 25/50 | Batch: 600/782 | 单Batch损失: 0.5677 | 累计平均损失: 0.6006
Epoch: 25/50 | Batch: 700/782 | 单Batch损失: 0.5492 | 累计平均损失: 0.6000
Epoch 25/50 完成 | 训练准确率: 79.09% | 测试准确率: 81.24%
Epoch: 26/50 | Batch: 100/782 | 单Batch损失: 0.5510 | 累计平均损失: 0.5756
Epoch: 26/50 | Batch: 200/782 | 单Batch损失: 0.4946 | 累计平均损失: 0.5898
Epoch: 26/50 | Batch: 300/782 | 单Batch损失: 0.4042 | 累计平均损失: 0.5998
Epoch: 26/50 | Batch: 400/782 | 单Batch损失: 0.6142 | 累计平均损失: 0.6017
Epoch: 26/50 | Batch: 500/782 | 单Batch损失: 0.5878 | 累计平均损失: 0.6018
Epoch: 26/50 | Batch: 600/782 | 单Batch损失: 0.7889 | 累计平均损失: 0.6004
Epoch: 26/50 | Batch: 700/782 | 单Batch损失: 0.6796 | 累计平均损失: 0.6005
Epoch 26/50 完成 | 训练准确率: 78.99% | 测试准确率: 82.02%
Epoch: 27/50 | Batch: 100/782 | 单Batch损失: 0.6384 | 累计平均损失: 0.5876
Epoch: 27/50 | Batch: 200/782 | 单Batch损失: 0.4381 | 累计平均损失: 0.5921
Epoch: 27/50 | Batch: 300/782 | 单Batch损失: 0.5611 | 累计平均损失: 0.5852
Epoch: 27/50 | Batch: 400/782 | 单Batch损失: 0.6130 | 累计平均损失: 0.5851
Epoch: 27/50 | Batch: 500/782 | 单Batch损失: 0.6033 | 累计平均损失: 0.5838
Epoch: 27/50 | Batch: 600/782 | 单Batch损失: 0.6882 | 累计平均损失: 0.5887
Epoch: 27/50 | Batch: 700/782 | 单Batch损失: 0.5520 | 累计平均损失: 0.5901
Epoch 27/50 完成 | 训练准确率: 79.39% | 测试准确率: 81.67%
Epoch: 28/50 | Batch: 100/782 | 单Batch损失: 0.5000 | 累计平均损失: 0.5795
Epoch: 28/50 | Batch: 200/782 | 单Batch损失: 0.9605 | 累计平均损失: 0.5807
Epoch: 28/50 | Batch: 300/782 | 单Batch损失: 0.7974 | 累计平均损失: 0.5800
Epoch: 28/50 | Batch: 400/782 | 单Batch损失: 0.6085 | 累计平均损失: 0.5783
Epoch: 28/50 | Batch: 500/782 | 单Batch损失: 0.6021 | 累计平均损失: 0.5789
Epoch: 28/50 | Batch: 600/782 | 单Batch损失: 0.5852 | 累计平均损失: 0.5795
Epoch: 28/50 | Batch: 700/782 | 单Batch损失: 0.4722 | 累计平均损失: 0.5796
Epoch 28/50 完成 | 训练准确率: 79.90% | 测试准确率: 81.78%
Epoch: 29/50 | Batch: 100/782 | 单Batch损失: 0.5543 | 累计平均损失: 0.5862
Epoch: 29/50 | Batch: 200/782 | 单Batch损失: 0.5983 | 累计平均损失: 0.5850
Epoch: 29/50 | Batch: 300/782 | 单Batch损失: 0.4655 | 累计平均损失: 0.5769
Epoch: 29/50 | Batch: 400/782 | 单Batch损失: 0.5777 | 累计平均损失: 0.5731
Epoch: 29/50 | Batch: 500/782 | 单Batch损失: 0.7751 | 累计平均损失: 0.5735
Epoch: 29/50 | Batch: 600/782 | 单Batch损失: 0.5230 | 累计平均损失: 0.5792
Epoch: 29/50 | Batch: 700/782 | 单Batch损失: 0.6486 | 累计平均损失: 0.5777
Epoch 29/50 完成 | 训练准确率: 79.83% | 测试准确率: 80.93%
Epoch: 30/50 | Batch: 100/782 | 单Batch损失: 0.4349 | 累计平均损失: 0.5627
Epoch: 30/50 | Batch: 200/782 | 单Batch损失: 0.7379 | 累计平均损失: 0.5528
Epoch: 30/50 | Batch: 300/782 | 单Batch损失: 0.3813 | 累计平均损失: 0.5641
Epoch: 30/50 | Batch: 400/782 | 单Batch损失: 0.6274 | 累计平均损失: 0.5666
Epoch: 30/50 | Batch: 500/782 | 单Batch损失: 0.4929 | 累计平均损失: 0.5688
Epoch: 30/50 | Batch: 600/782 | 单Batch损失: 0.5129 | 累计平均损失: 0.5682
Epoch: 30/50 | Batch: 700/782 | 单Batch损失: 0.3648 | 累计平均损失: 0.5698
Epoch 30/50 完成 | 训练准确率: 80.27% | 测试准确率: 80.81%
Epoch: 31/50 | Batch: 100/782 | 单Batch损失: 0.4752 | 累计平均损失: 0.5344
Epoch: 31/50 | Batch: 200/782 | 单Batch损失: 0.6112 | 累计平均损失: 0.5270
Epoch: 31/50 | Batch: 300/782 | 单Batch损失: 0.7097 | 累计平均损失: 0.5279
Epoch: 31/50 | Batch: 400/782 | 单Batch损失: 0.6439 | 累计平均损失: 0.5242
Epoch: 31/50 | Batch: 500/782 | 单Batch损失: 0.5794 | 累计平均损失: 0.5255
Epoch: 31/50 | Batch: 600/782 | 单Batch损失: 0.5100 | 累计平均损失: 0.5236
Epoch: 31/50 | Batch: 700/782 | 单Batch损失: 0.3518 | 累计平均损失: 0.5217
Epoch 31/50 完成 | 训练准确率: 81.78% | 测试准确率: 83.44%
Epoch: 32/50 | Batch: 100/782 | 单Batch损失: 0.5401 | 累计平均损失: 0.4996
Epoch: 32/50 | Batch: 200/782 | 单Batch损失: 0.4010 | 累计平均损失: 0.5038
Epoch: 32/50 | Batch: 300/782 | 单Batch损失: 0.3299 | 累计平均损失: 0.5028
Epoch: 32/50 | Batch: 400/782 | 单Batch损失: 0.4963 | 累计平均损失: 0.5026
Epoch: 32/50 | Batch: 500/782 | 单Batch损失: 0.3892 | 累计平均损失: 0.5044
Epoch: 32/50 | Batch: 600/782 | 单Batch损失: 0.5406 | 累计平均损失: 0.5075
Epoch: 32/50 | Batch: 700/782 | 单Batch损失: 0.4213 | 累计平均损失: 0.5080
Epoch 32/50 完成 | 训练准确率: 82.19% | 测试准确率: 83.31%
Epoch: 33/50 | Batch: 100/782 | 单Batch损失: 0.3157 | 累计平均损失: 0.4888
Epoch: 33/50 | Batch: 200/782 | 单Batch损失: 0.2931 | 累计平均损失: 0.4940
Epoch: 33/50 | Batch: 300/782 | 单Batch损失: 0.4893 | 累计平均损失: 0.5020
Epoch: 33/50 | Batch: 400/782 | 单Batch损失: 0.4614 | 累计平均损失: 0.4987
Epoch: 33/50 | Batch: 500/782 | 单Batch损失: 0.6587 | 累计平均损失: 0.4954
Epoch: 33/50 | Batch: 600/782 | 单Batch损失: 0.3291 | 累计平均损失: 0.4965
Epoch: 33/50 | Batch: 700/782 | 单Batch损失: 0.4636 | 累计平均损失: 0.4986
Epoch 33/50 完成 | 训练准确率: 82.52% | 测试准确率: 83.57%
Epoch: 34/50 | Batch: 100/782 | 单Batch损失: 0.3985 | 累计平均损失: 0.4882
Epoch: 34/50 | Batch: 200/782 | 单Batch损失: 0.6551 | 累计平均损失: 0.4933
Epoch: 34/50 | Batch: 300/782 | 单Batch损失: 0.5708 | 累计平均损失: 0.4956
Epoch: 34/50 | Batch: 400/782 | 单Batch损失: 0.4960 | 累计平均损失: 0.4930
Epoch: 34/50 | Batch: 500/782 | 单Batch损失: 0.4952 | 累计平均损失: 0.4935
Epoch: 34/50 | Batch: 600/782 | 单Batch损失: 0.4377 | 累计平均损失: 0.4969
Epoch: 34/50 | Batch: 700/782 | 单Batch损失: 0.5385 | 累计平均损失: 0.4950
Epoch 34/50 完成 | 训练准确率: 82.82% | 测试准确率: 83.00%
Epoch: 35/50 | Batch: 100/782 | 单Batch损失: 0.5073 | 累计平均损失: 0.4926
Epoch: 35/50 | Batch: 200/782 | 单Batch损失: 0.5737 | 累计平均损失: 0.4848
Epoch: 35/50 | Batch: 300/782 | 单Batch损失: 0.3960 | 累计平均损失: 0.4841
Epoch: 35/50 | Batch: 400/782 | 单Batch损失: 0.4377 | 累计平均损失: 0.4836
Epoch: 35/50 | Batch: 500/782 | 单Batch损失: 0.3061 | 累计平均损失: 0.4840
Epoch: 35/50 | Batch: 600/782 | 单Batch损失: 0.4411 | 累计平均损失: 0.4857
Epoch: 35/50 | Batch: 700/782 | 单Batch损失: 0.5037 | 累计平均损失: 0.4871
Epoch 35/50 完成 | 训练准确率: 82.90% | 测试准确率: 83.85%
Epoch: 36/50 | Batch: 100/782 | 单Batch损失: 0.4132 | 累计平均损失: 0.4892
Epoch: 36/50 | Batch: 200/782 | 单Batch损失: 0.2313 | 累计平均损失: 0.4857
Epoch: 36/50 | Batch: 300/782 | 单Batch损失: 0.3319 | 累计平均损失: 0.4865
Epoch: 36/50 | Batch: 400/782 | 单Batch损失: 0.4715 | 累计平均损失: 0.4915
Epoch: 36/50 | Batch: 500/782 | 单Batch损失: 0.4068 | 累计平均损失: 0.4903
Epoch: 36/50 | Batch: 600/782 | 单Batch损失: 0.4756 | 累计平均损失: 0.4912
Epoch: 36/50 | Batch: 700/782 | 单Batch损失: 0.4490 | 累计平均损失: 0.4913
Epoch 36/50 完成 | 训练准确率: 82.77% | 测试准确率: 83.55%
Epoch: 37/50 | Batch: 100/782 | 单Batch损失: 0.4859 | 累计平均损失: 0.4836
Epoch: 37/50 | Batch: 200/782 | 单Batch损失: 0.4128 | 累计平均损失: 0.4732
Epoch: 37/50 | Batch: 300/782 | 单Batch损失: 0.3715 | 累计平均损失: 0.4701
Epoch: 37/50 | Batch: 400/782 | 单Batch损失: 0.4911 | 累计平均损失: 0.4717
Epoch: 37/50 | Batch: 500/782 | 单Batch损失: 0.4341 | 累计平均损失: 0.4757
Epoch: 37/50 | Batch: 600/782 | 单Batch损失: 0.5582 | 累计平均损失: 0.4749
Epoch: 37/50 | Batch: 700/782 | 单Batch损失: 0.6475 | 累计平均损失: 0.4770
Epoch 37/50 完成 | 训练准确率: 83.12% | 测试准确率: 83.20%
Epoch: 38/50 | Batch: 100/782 | 单Batch损失: 0.5541 | 累计平均损失: 0.4553
Epoch: 38/50 | Batch: 200/782 | 单Batch损失: 0.4105 | 累计平均损失: 0.4551
Epoch: 38/50 | Batch: 300/782 | 单Batch损失: 0.4476 | 累计平均损失: 0.4513
Epoch: 38/50 | Batch: 400/782 | 单Batch损失: 0.4791 | 累计平均损失: 0.4534
Epoch: 38/50 | Batch: 500/782 | 单Batch损失: 0.4224 | 累计平均损失: 0.4551
Epoch: 38/50 | Batch: 600/782 | 单Batch损失: 0.4507 | 累计平均损失: 0.4543
Epoch: 38/50 | Batch: 700/782 | 单Batch损失: 0.6033 | 累计平均损失: 0.4530
Epoch 38/50 完成 | 训练准确率: 84.08% | 测试准确率: 84.58%
Epoch: 39/50 | Batch: 100/782 | 单Batch损失: 0.5436 | 累计平均损失: 0.4502
Epoch: 39/50 | Batch: 200/782 | 单Batch损失: 0.4747 | 累计平均损失: 0.4476
Epoch: 39/50 | Batch: 300/782 | 单Batch损失: 0.5037 | 累计平均损失: 0.4462
Epoch: 39/50 | Batch: 400/782 | 单Batch损失: 0.4014 | 累计平均损失: 0.4443
Epoch: 39/50 | Batch: 500/782 | 单Batch损失: 0.4490 | 累计平均损失: 0.4425
Epoch: 39/50 | Batch: 600/782 | 单Batch损失: 0.4424 | 累计平均损失: 0.4414
Epoch: 39/50 | Batch: 700/782 | 单Batch损失: 0.3164 | 累计平均损失: 0.4411
Epoch 39/50 完成 | 训练准确率: 84.58% | 测试准确率: 84.35%
Epoch: 40/50 | Batch: 100/782 | 单Batch损失: 0.2633 | 累计平均损失: 0.4423
Epoch: 40/50 | Batch: 200/782 | 单Batch损失: 0.5159 | 累计平均损失: 0.4352
Epoch: 40/50 | Batch: 300/782 | 单Batch损失: 0.3438 | 累计平均损失: 0.4408
Epoch: 40/50 | Batch: 400/782 | 单Batch损失: 0.5254 | 累计平均损失: 0.4400
Epoch: 40/50 | Batch: 500/782 | 单Batch损失: 0.5095 | 累计平均损失: 0.4392
Epoch: 40/50 | Batch: 600/782 | 单Batch损失: 0.4860 | 累计平均损失: 0.4396
Epoch: 40/50 | Batch: 700/782 | 单Batch损失: 0.4159 | 累计平均损失: 0.4387
Epoch 40/50 完成 | 训练准确率: 84.44% | 测试准确率: 84.55%
Epoch: 41/50 | Batch: 100/782 | 单Batch损失: 0.4876 | 累计平均损失: 0.4398
Epoch: 41/50 | Batch: 200/782 | 单Batch损失: 0.2472 | 累计平均损失: 0.4365
Epoch: 41/50 | Batch: 300/782 | 单Batch损失: 0.4353 | 累计平均损失: 0.4410
Epoch: 41/50 | Batch: 400/782 | 单Batch损失: 0.4128 | 累计平均损失: 0.4449
Epoch: 41/50 | Batch: 500/782 | 单Batch损失: 0.5471 | 累计平均损失: 0.4443
Epoch: 41/50 | Batch: 600/782 | 单Batch损失: 0.5178 | 累计平均损失: 0.4416
Epoch: 41/50 | Batch: 700/782 | 单Batch损失: 0.7246 | 累计平均损失: 0.4416
Epoch 41/50 完成 | 训练准确率: 84.47% | 测试准确率: 84.53%
Epoch: 42/50 | Batch: 100/782 | 单Batch损失: 0.4572 | 累计平均损失: 0.4389
Epoch: 42/50 | Batch: 200/782 | 单Batch损失: 0.5343 | 累计平均损失: 0.4412
Epoch: 42/50 | Batch: 300/782 | 单Batch损失: 0.3267 | 累计平均损失: 0.4405
Epoch: 42/50 | Batch: 400/782 | 单Batch损失: 0.4651 | 累计平均损失: 0.4437
Epoch: 42/50 | Batch: 500/782 | 单Batch损失: 0.5116 | 累计平均损失: 0.4407
Epoch: 42/50 | Batch: 600/782 | 单Batch损失: 0.4917 | 累计平均损失: 0.4420
Epoch: 42/50 | Batch: 700/782 | 单Batch损失: 0.3828 | 累计平均损失: 0.4428
Epoch 42/50 完成 | 训练准确率: 84.43% | 测试准确率: 84.63%
Epoch: 43/50 | Batch: 100/782 | 单Batch损失: 0.4204 | 累计平均损失: 0.4377
Epoch: 43/50 | Batch: 200/782 | 单Batch损失: 0.5453 | 累计平均损失: 0.4351
Epoch: 43/50 | Batch: 300/782 | 单Batch损失: 0.2920 | 累计平均损失: 0.4286
Epoch: 43/50 | Batch: 400/782 | 单Batch损失: 0.2722 | 累计平均损失: 0.4296
Epoch: 43/50 | Batch: 500/782 | 单Batch损失: 0.5605 | 累计平均损失: 0.4324
Epoch: 43/50 | Batch: 600/782 | 单Batch损失: 0.4332 | 累计平均损失: 0.4335
Epoch: 43/50 | Batch: 700/782 | 单Batch损失: 0.2315 | 累计平均损失: 0.4352
Epoch 43/50 完成 | 训练准确率: 84.80% | 测试准确率: 84.91%
Epoch: 44/50 | Batch: 100/782 | 单Batch损失: 0.3488 | 累计平均损失: 0.4126
Epoch: 44/50 | Batch: 200/782 | 单Batch损失: 0.2722 | 累计平均损失: 0.4197
Epoch: 44/50 | Batch: 300/782 | 单Batch损失: 0.5089 | 累计平均损失: 0.4239
Epoch: 44/50 | Batch: 400/782 | 单Batch损失: 0.3919 | 累计平均损失: 0.4279
Epoch: 44/50 | Batch: 500/782 | 单Batch损失: 0.2832 | 累计平均损失: 0.4281
Epoch: 44/50 | Batch: 600/782 | 单Batch损失: 0.4690 | 累计平均损失: 0.4283
Epoch: 44/50 | Batch: 700/782 | 单Batch损失: 0.5393 | 累计平均损失: 0.4304
Epoch 44/50 完成 | 训练准确率: 84.63% | 测试准确率: 84.37%
Epoch: 45/50 | Batch: 100/782 | 单Batch损失: 0.2962 | 累计平均损失: 0.4168
Epoch: 45/50 | Batch: 200/782 | 单Batch损失: 0.2556 | 累计平均损失: 0.4159
Epoch: 45/50 | Batch: 300/782 | 单Batch损失: 0.3362 | 累计平均损失: 0.4200
Epoch: 45/50 | Batch: 400/782 | 单Batch损失: 0.3593 | 累计平均损失: 0.4196
Epoch: 45/50 | Batch: 500/782 | 单Batch损失: 0.5386 | 累计平均损失: 0.4264
Epoch: 45/50 | Batch: 600/782 | 单Batch损失: 0.3800 | 累计平均损失: 0.4322
Epoch: 45/50 | Batch: 700/782 | 单Batch损失: 0.4084 | 累计平均损失: 0.4287
Epoch 45/50 完成 | 训练准确率: 84.81% | 测试准确率: 84.41%
Epoch: 46/50 | Batch: 100/782 | 单Batch损失: 0.5096 | 累计平均损失: 0.4304
Epoch: 46/50 | Batch: 200/782 | 单Batch损失: 0.4779 | 累计平均损失: 0.4314
Epoch: 46/50 | Batch: 300/782 | 单Batch损失: 0.6787 | 累计平均损失: 0.4280
Epoch: 46/50 | Batch: 400/782 | 单Batch损失: 0.5720 | 累计平均损失: 0.4356
Epoch: 46/50 | Batch: 500/782 | 单Batch损失: 0.7186 | 累计平均损失: 0.4320
Epoch: 46/50 | Batch: 600/782 | 单Batch损失: 0.3907 | 累计平均损失: 0.4306
Epoch: 46/50 | Batch: 700/782 | 单Batch损失: 0.4491 | 累计平均损失: 0.4275
Epoch 46/50 完成 | 训练准确率: 84.99% | 测试准确率: 84.75%
Epoch: 47/50 | Batch: 100/782 | 单Batch损失: 0.3529 | 累计平均损失: 0.4073
Epoch: 47/50 | Batch: 200/782 | 单Batch损失: 0.3394 | 累计平均损失: 0.4157
Epoch: 47/50 | Batch: 300/782 | 单Batch损失: 0.3116 | 累计平均损失: 0.4183
Epoch: 47/50 | Batch: 400/782 | 单Batch损失: 0.3315 | 累计平均损失: 0.4167
Epoch: 47/50 | Batch: 500/782 | 单Batch损失: 0.3389 | 累计平均损失: 0.4216
Epoch: 47/50 | Batch: 600/782 | 单Batch损失: 0.3032 | 累计平均损失: 0.4226
Epoch: 47/50 | Batch: 700/782 | 单Batch损失: 0.6355 | 累计平均损失: 0.4238
Epoch 47/50 完成 | 训练准确率: 84.90% | 测试准确率: 84.61%
Epoch: 48/50 | Batch: 100/782 | 单Batch损失: 0.4317 | 累计平均损失: 0.4142
Epoch: 48/50 | Batch: 200/782 | 单Batch损失: 0.3190 | 累计平均损失: 0.4180
Epoch: 48/50 | Batch: 300/782 | 单Batch损失: 0.3532 | 累计平均损失: 0.4163
Epoch: 48/50 | Batch: 400/782 | 单Batch损失: 0.5180 | 累计平均损失: 0.4183
Epoch: 48/50 | Batch: 500/782 | 单Batch损失: 0.7002 | 累计平均损失: 0.4209
Epoch: 48/50 | Batch: 600/782 | 单Batch损失: 0.4239 | 累计平均损失: 0.4214
Epoch: 48/50 | Batch: 700/782 | 单Batch损失: 0.4616 | 累计平均损失: 0.4190
Epoch 48/50 完成 | 训练准确率: 85.35% | 测试准确率: 84.38%
Epoch: 49/50 | Batch: 100/782 | 单Batch损失: 0.4101 | 累计平均损失: 0.3983
Epoch: 49/50 | Batch: 200/782 | 单Batch损失: 0.3606 | 累计平均损失: 0.4036
Epoch: 49/50 | Batch: 300/782 | 单Batch损失: 0.5050 | 累计平均损失: 0.4105
Epoch: 49/50 | Batch: 400/782 | 单Batch损失: 0.4918 | 累计平均损失: 0.4129
Epoch: 49/50 | Batch: 500/782 | 单Batch损失: 0.2756 | 累计平均损失: 0.4106
Epoch: 49/50 | Batch: 600/782 | 单Batch损失: 0.4527 | 累计平均损失: 0.4154
Epoch: 49/50 | Batch: 700/782 | 单Batch损失: 0.4894 | 累计平均损失: 0.4172
Epoch 49/50 完成 | 训练准确率: 85.08% | 测试准确率: 85.05%
Epoch: 50/50 | Batch: 100/782 | 单Batch损失: 0.3366 | 累计平均损失: 0.4077
Epoch: 50/50 | Batch: 200/782 | 单Batch损失: 0.3599 | 累计平均损失: 0.4167
Epoch: 50/50 | Batch: 300/782 | 单Batch损失: 0.5351 | 累计平均损失: 0.4141
Epoch: 50/50 | Batch: 400/782 | 单Batch损失: 0.4744 | 累计平均损失: 0.4133
Epoch: 50/50 | Batch: 500/782 | 单Batch损失: 0.4387 | 累计平均损失: 0.4132
Epoch: 50/50 | Batch: 600/782 | 单Batch损失: 0.3936 | 累计平均损失: 0.4174
Epoch: 50/50 | Batch: 700/782 | 单Batch损失: 0.2873 | 累计平均损失: 0.4190
Epoch 50/50 完成 | 训练准确率: 85.25% | 测试准确率: 84.33%
训练完成!最终测试准确率: 84.33%

相关文章:

  • 华为 “一底双长焦” 专利公布,引领移动影像新变革
  • vue中加载Cesium地图(天地图、高德地图)
  • 解决基于LangGraph框架的DeerFlow使用Qwen3不能正常被解析的问题
  • SOC-ESP32S3部分:31-ESP-LCD控制器库
  • TeamCity Agent 配置完整教程(配合 Docker Compose 快速部署)
  • Vite 双引擎架构 —— Esbuild 概念篇
  • Self Attention自注意力机制
  • 使用 Docker Compose 从零部署 TeamCity + PostgreSQL(详细新手教程)
  • Ubuntu 系统通过防火墙管控 Docker 容器
  • 【PyQt5】用于设置控件位置的参数
  • 【Kotlin】注解反射扩展
  • [大A量化专栏] 夏普比率
  • Linux 下的COW机制(copy-on-write)
  • android app 一个 crash的解决过程!
  • 26.【新型数据架构】-零ETL架构
  • python打卡day46@浙大疏锦行
  • 【驱动】Orin NX恢复备份失败:does not match the current board you‘re flashing onto
  • 数列运算中的常见错因分析
  • java学习电子书推荐
  • 密码学基础——SM4算法
  • 东营两学一做网站/站长工具使用
  • wordpress模板代码在/搜索seo神器
  • 网站关键字优化地点/自己如何制作一个网站
  • 深圳做网站-信科网络/广告联盟app下载官网
  • html5的网站设计/西安seo排名扣费
  • 宁波网站推广外包服务/百度seo白皮书