当前位置: 首页 > news >正文

6.3 day 35

知识点回顾:

  1. 三种不同的模型可视化方法:推荐torchinfo打印summary+权重分布可视化
  2. 进度条功能:手动和自动写法,让打印结果更加美观
  3. 推理的写法:评估模式
可视化

理解深度学习网络最重要的2点:

1.了解损失如何定义的,知道损失从何而来----把抽象的任务通过损失函数量化出来
2.了解参数总量,即知道每一层的设计才能退出---层设计决定参数总量

1.1 nn.model自带的方法

#1.
#  nn.Module 的内置功能,直接输出模型结构
print(model)#2.
# nn.Module 的内置功能,返回模型的可训练参数迭代器
for name, param in model.named_parameters():print(f"Parameter name: {name}, Shape: {param.shape}")#3.
# 提取权重数据
import numpy as np
weight_data = {}
for name, param in model.named_parameters():if 'weight' in name:weight_data[name] = param.detach().cpu().numpy()# 可视化权重分布
fig, axes = plt.subplots(1, len(weight_data), figsize=(15, 5))
fig.suptitle('Weight Distribution of Layers')for i, (name, weights) in enumerate(weight_data.items()):# 展平权重张量为一维数组weights_flat = weights.flatten()# 绘制直方图axes[i].hist(weights_flat, bins=50, alpha=0.7)axes[i].set_title(name)axes[i].set_xlabel('Weight Value')axes[i].set_ylabel('Frequency')axes[i].grid(True, linestyle='--', alpha=0.7)plt.tight_layout()
plt.subplots_adjust(top=0.85)
plt.show()
# 计算并打印每层权重的统计信息
print("\n=== 权重统计信息 ===")
for name, weights in weight_data.items():mean = np.mean(weights)std = np.std(weights)min_val = np.min(weights)max_val = np.max(weights)print(f"{name}:")print(f"  均值: {mean:.6f}")print(f"  标准差: {std:.6f}")print(f"  最小值: {min_val:.6f}")print(f"  最大值: {max_val:.6f}")print("-" * 30)
from torchsummary import summary
# 打印模型摘要,可以放置在模型定义后面
summary(model, input_size=(4,))

该方法不显示输入层的尺寸,因为输入的神经网是自己设置的,所以不需要显示输入层的尺寸。 但是在使用该方法时,input_size=(4,) 参数是必需的,因为 PyTorch 需要知道输入数据的形状才能推断模型各层的输出形状和参数数量。

summary 函数的核心逻辑是:

创建一个与 input_size 形状匹配的虚拟输入张量(通常填充零)
将虚拟输入传递给模型,执行一次前向传播(但不计算梯度)
记录每一层的输入和输出形状,以及参数数量
生成可读的摘要报告

from torchinfo import summary
summary(model, input_size=(4, ))

torchinfo 是提供比 torchsummary 更详细的模型摘要信息,包括每层的输入输出形状、参数数量、计算量等

from tqdm import tqdm  # 先导入tqdm库
import time  # 用于模拟耗时操作# 创建一个总步数为10的进度条
with tqdm(total=10) as pbar:  # pbar是进度条对象的变量名# pbar 是 progress bar(进度条)的缩写,约定俗成的命名习惯。for i in range(10):  # 循环10次(对应进度条的10步)time.sleep(0.5)  # 模拟每次循环耗时0.5秒pbar.update(1)  # 每次循环后,进度条前进1步
# 在测试集上评估模型,此时model内部已经是训练好的参数了
# 评估模型
model.eval() # 设置模型为评估模式
with torch.no_grad(): # torch.no_grad()的作用是禁用梯度计算,可以提高模型推理速度outputs = model(X_test)  # 对测试数据进行前向传播,获得预测结果_, predicted = torch.max(outputs, 1) # torch.max(outputs, 1)返回每行的最大值和对应的索引#这个函数返回2个值,分别是最大值和对应索引,参数1是在第1维度(行)上找最大值,_ 是Python的约定,表示忽略这个返回值,所以这个写法是找到每一行最大值的下标# 此时outputs是一个tensor,p每一行是一个样本,每一行有3个值,分别是属于3个类别的概率,取最大值的下标就是预测的类别# predicted == y_test判断预测值和真实值是否相等,返回一个tensor,1表示相等,0表示不等,然后求和,再除以y_test.size(0)得到准确率# 因为这个时候数据是tensor,所以需要用item()方法将tensor转化为Python的标量# 之所以不用sklearn的accuracy_score函数,是因为这个函数是在CPU上运行的,需要将数据转移到CPU上,这样会慢一些# size(0)获取第0维的长度,即样本数量correct = (predicted == y_test).sum().item() # 计算预测正确的样本数accuracy = correct / y_test.size(0)print(f'测试集准确率: {accuracy * 100:.2f}%')

相关文章:

  • 吞咽与营养并重:进行性核上性麻痹的饮食之道
  • 倚光科技:Zernike自由曲面转菲涅尔,反射镜及透镜加工技术革新
  • redis的哨兵模式和Redis cluster
  • mapbox高阶,生成并加载等时图
  • 华为数据之道 精读——【173页】读书笔记【附全文阅读】
  • 基于大模型的短暂性脑缺血发作(TIA)全流程预测与干预系统技术方案
  • Apache Iceberg 如何实现分布式 ACID 事务:深度解析大数据时代的可靠数据管理
  • 智启未来:AI重构制造业供应链的五大革命性突破
  • Java基础 Day28 完结篇
  • 深入解析 MultipartFile:Spring 框架下的高效文件处理方案
  • 【笔记】使用Media Creation Tool给新主机装win10魔改iso
  • Spring @Value注解的依赖注入实现原理
  • 2025年微信小程序开发:趋势、最佳实践与AI整合
  • 笔记:算法题目中需要处理 int 某个位的三种方法:for、while、to_string
  • SpringBoot中缓存@Cacheable出错
  • SpringBoot 数据库导入导出 Xlsx文件的导入与导出 全量导出 数据库导出表格 数据处理 外部数据
  • 基于SpringBoot的“嗨玩旅游”网站设计与实现(源码+定制+开发)嗨玩旅游平台开发:景点展示与个性化推荐系统(SpringBoot)
  • 《数据挖掘》- 房价数据分析
  • 《Spring Bean 是怎么被创建出来的?容器启动流程全景分析》
  • mobilnet v4 部署笔记
  • 日本 网站 设计 模仿欧美/做网络推广工作怎么样
  • wordpress网站变灰/世界网站排名查询
  • 宠物网站设计说明书/网站软件下载app
  • 网站设计模板设计其他/策划营销
  • 个人做理财网站/sem竞价推广怎么做
  • 双桥seo排名优化培训/google优化师