当前位置: 首页 > news >正文

Day42 Grad-CAM与Hook函数

@浙大疏锦行
知识点回顾
  1. 回调函数
  2. lambda函数
  3. hook函数的模块钩子和张量钩子
  4. Grad-CAM的示例

        由于标准的前向传播和反向传播过程是一个黑盒,我们很难直接访问中间层的信息,所以很难经常查看或修改模型中间层的输出或梯度。PyTorch提供了hook函数来帮助我们在不修改模型结构的情况下,获取或修改中间层的信息。常用场景如下:

        1.调试与可视化中间层输出

        2.特征提取,在图像分类模型中提取高层语义特征用于下游任务

        3.梯度分析与修改,在训练过程中,对某些层进行梯度裁剪或缩放来改变模型的动态

        4.模型压缩,在推理阶段对特定层的输出应用掩码,实现轻量化推理

在深度学习中,以图像分类任务为例,我们不仅可以通过可视化特征图直观观察不同层对图像特征的提取程度,还可以借助Grad-CAM等技术生成特征热力图,来展现模型在预测过程中对图像不同区域的关注重点,从而深入理解其决策机制。

一、回调函数

hook函数本质是回调函数,我们先了解回调函数

回调函数是作为参数传递给其他函数的函数。

目的:在特定事件发生时被调用执行。

核心价值:

        1.解耦逻辑:将通用逻辑与特定处理逻辑分离,使得代码更加模块化

        2.事件驱动编程:在异步操作、事件监听等场景中广泛应用

        3.延迟执行:允许在未来某个时间点执行特定代码,不必立即执行

定义:回调函数作为参数传入,在定义的时候一般用callback来命名,在 PyTorch 的 Hook API 中,回调参数通常命名为 hook

# 定义一个回调函数
def handle_result(result):"""处理计算结果的回调函数"""print(f"计算结果是: {result}")# 定义一个接受回调函数的函数
def calculate(a, b, callback): # callback是一个约定俗成的参数名"""这个函数接受两个数值和一个回调函数,用于处理计算结果。执行计算并调用回调函数"""result = a + bcallback(result)  # 在计算完成后调用回调函数# 使用回调函数
calculate(3, 5, handle_result)  # 输出: 计算结果是: 8

与装饰器对比

def handle_result(result):"""处理计算结果的回调函数"""print(f"计算结果是: {result}")def with_callback(callback):"""装饰器工厂:创建一个将计算结果传递给回调函数的装饰器"""def decorator(func):"""实际的装饰器,用于包装目标函数"""def wrapper(a, b):"""被装饰后的函数,执行计算并调用回调"""result = func(a, b)  # 执行原始计算callback(result)     # 调用回调函数处理结果return result        # 返回计算结果(可选)return wrapperreturn decorator# 使用装饰器包装原始计算函数
@with_callback(handle_result)
def calculate(a, b):"""执行加法计算"""return a + b# 直接调用被装饰后的函数
calculate(3, 5)  # 输出: 计算结果是: 8

回调函数核心是将处理逻辑(回调)作为参数传递给计算函数,控制流:计算函数 → 回调函数,适合一次性或动态的处理需求(控制流指的是程序执行时各代码块的执行顺序)

装饰器实现核心是修改原始函数的行为,在其基础上添加额外功能,控制流:被装饰函数 → 原始计算 → 回调函数,适合统一的、可复用的处理逻辑

两种实现方式都达到了相同的效果,但装饰器提供了更优雅的语法和更好的代码复用性。在需要对多个计算函数应用相同回调逻辑时,装饰器方案会更加高效。

总结:回调函数本质上是作为参数传递的普通函数,装饰器是用于包装函数的高阶函数;回调函数是单向调用,外层函数调用回调,装饰器是嵌套调用,装饰器返回新函数替代原函数。

Hook 的底层工作原理

PyTorch 的 Hook 机制基于其动态计算图系统:

1. 当你注册一个 Hook 时,PyTorch 会在计算图的特定节点(如模块或张量)上添加一个回调函数。

2. 当计算图执行到该节点时(前向或反向传播),自动触发对应的 Hook 函数。

3. Hook 函数可以访问或修改流经该节点的数据(如输入、输出或梯度)。

这种设计使得 Hook 能够在不干扰模型正常运行的前提下,灵活地插入自定义逻辑。

Hook 本质是在程序流程中预留的“可插入点”,而插入的方式可以是回调函数、装饰器或其他形式。


二、Lamda匿名函数

没有正式名称的函数,最大特点是用完即弃,无需提前命名和定义。它的语法形式非常简约,仅需一行即可完成定义,格式如下:

lambda 参数列表: 表达式

参数列表:可以是单个参数、多个参数或无参数。

表达式:函数的返回值(无需 return 语句,表达式结果直接返回)。

# 定义匿名函数:计算平方
square = lambda x: x ** 2# 调用
print(square(5))  # 输出: 25

简短逻辑,用极简语法快速定义临时函数,避免为一次性使用的简单逻辑单独命名函数,从而减少代码冗余,提升开发效率。

三、Hook函数

PyTorch 提供了两种主要的 hook:

1. Module Hooks:用于监听整个模块的输入和输出

2. Tensor Hooks:用于监听张量的梯度

模块钩子允许我们在模块的输入或输出经过时进行监听。PyTorch 提供了两种模块钩子:

- `register_forward_hook`:在前向传播时监听模块的输入和输出

- `register_backward_hook`:在反向传播时监听模块的输入梯度和输出梯度

前向钩子是一个函数,它会在模块的前向传播完成后立即被调用。这个函数可以访问模块的输入和输出,但不能修改它们。

import torch
import torch.nn as nn# 定义一个简单的卷积神经网络模型
class SimpleModel(nn.Module):def __init__(self):super(SimpleModel, self).__init__()# 定义卷积层:输入通道1,输出通道2,卷积核3x3,填充1保持尺寸不变self.conv = nn.Conv2d(1, 2, kernel_size=3, padding=1)# 定义ReLU激活函数self.relu = nn.ReLU()# 定义全连接层:输入特征2*4*4,输出10分类self.fc = nn.Linear(2 * 4 * 4, 10)def forward(self, x):# 卷积操作x = self.conv(x)# 激活函数x = self.relu(x)# 展平为一维向量,准备输入全连接层x = x.view(-1, 2 * 4 * 4)# 全连接分类x = self.fc(x)return x# 创建模型实例
model = SimpleModel()# 创建一个列表用于存储中间层的输出
conv_outputs = []# 定义前向钩子函数 - 用于在模型前向传播过程中获取中间层信息
def forward_hook(module, input, output):"""前向钩子函数,会在模块每次执行前向传播后被自动调用参数:module: 当前应用钩子的模块实例input: 传递给该模块的输入张量元组output: 该模块产生的输出张量"""print(f"钩子被调用!模块类型: {type(module)}")print(f"输入形状: {input[0].shape}") #  input是一个元组,对应 (image, label)print(f"输出形状: {output.shape}")# 保存卷积层的输出用于后续分析# 使用detach()避免追踪梯度,防止内存泄漏conv_outputs.append(output.detach())# 在卷积层注册前向钩子
# register_forward_hook返回一个句柄,用于后续移除钩子
hook_handle = model.conv.register_forward_hook(forward_hook)# 创建一个随机输入张量 (批次大小=1, 通道=1, 高度=4, 宽度=4)
x = torch.randn(1, 1, 4, 4)# 执行前向传播 - 此时会自动触发钩子函数
output = model(x)# 释放钩子 - 重要!防止在后续模型使用中持续调用钩子造成意外行为或内存泄漏
hook_handle.remove()# # 打印中间层输出结果
# if conv_outputs:
#     print(f"\n卷积层输出形状: {conv_outputs[0].shape}")
#     print(f"卷积层输出值示例: {conv_outputs[0][0, 0, :, :]}")

当前向传播执行到卷积层时,钩子函数会被自动调用。

钩子函数接收三个参数:

- `module`:应用钩子的模块实例

- `input`:传递给模块的输入(可能包含多个张量)

- `output`:模块的输出

我们可以在钩子函数中查看或记录这些信息,但不能直接修改它们。如果需要修改输出,可以使用 `register_forward_pre_hook` 或 `register_forward_hook_with_kwargs`(PyTorch 1.9+)。

最后,我们使用 `hook_handle.remove()` 释放了钩子,这一点很重要,因为未释放的钩子可能会导致内存泄漏。

反向钩子与前向钩子类似,但它是在反向传播过程中被调用的。反向钩子可以用来获取或修改梯度信息。

# 定义一个存储梯度的列表
conv_gradients = []# 定义反向钩子函数
def backward_hook(module, grad_input, grad_output):# 模块:当前应用钩子的模块# grad_input:模块输入的梯度# grad_output:模块输出的梯度print(f"反向钩子被调用!模块类型: {type(module)}")print(f"输入梯度数量: {len(grad_input)}")print(f"输出梯度数量: {len(grad_output)}")# 保存梯度供后续分析conv_gradients.append((grad_input, grad_output))# 在卷积层注册反向钩子
hook_handle = model.conv.register_backward_hook(backward_hook)# 创建一个随机输入并进行前向传播
x = torch.randn(1, 1, 4, 4, requires_grad=True)
output = model(x)# 定义一个简单的损失函数并进行反向传播
loss = output.sum()
loss.backward()# 释放钩子
hook_handle.remove()

张量钩子,允许我们直接监听和修改张量的梯度。张量钩子有两种:

- `register_hook`:用于监听张量的梯度

- `register_full_backward_hook`:用于在完整的反向传播过程中监听张量的梯度(PyTorch 1.4+)

# 创建一个需要计算梯度的张量
x = torch.tensor([2.0], requires_grad=True)
y = x ** 2
z = y ** 3# 定义一个钩子函数,用于修改梯度
def tensor_hook(grad):print(f"原始梯度: {grad}")# 修改梯度,例如将梯度减半return grad / 2# 在y上注册钩子
hook_handle = y.register_hook(tensor_hook)# 计算梯度
z.backward()print(f"x的梯度: {x.grad}")# 释放钩子
hook_handle.remove()

在传播过程中,钩子函数会被调用,我们可以在钩子函数中查看或修改梯度。

四、Grad-CAM

Grad-CAM (Gradient-weighted Class Activation Mapping) 算法是一种强大的可视化技术,用于解释卷积神经网络 (CNN) 的决策过程。它通过计算特征图的梯度来生成类激活映射(Class Activation Mapping,简称 CAM ),直观地显示图像中哪些区域对模型的特定预测贡献最大。

Grad-CAM 的核心思想是:通过反向传播得到的梯度信息,来衡量每个特征图对目标类别的重要性。

1. 梯度信息:通过计算目标类别对特征图的梯度,得到每个特征图的重要性权重。

2. 特征加权:用这些权重对特征图进行加权求和,得到类激活映射。

3. 可视化:将激活映射叠加到原始图像上,高亮显示对预测最关键的区域。


 

http://www.dtcms.com/a/361695.html

相关文章:

  • 进程与线程 - 并发的基石
  • SQL执行过程及原理详解
  • [SWPUCTF 2018]SimplePHP
  • 实现自己的AI视频监控系统-第三章-信息的推送与共享2
  • 刘洋洋《一笔相思绘红妆》上线,献给当代痴心人的一封情书
  • 互斥量(Mutex,全称 Mutual Exclusion)用于保证同一时间只有一个线程(或进程)访问共享资源,从而避免并发操作导致的数据不一致问题
  • RAG-文本到SQL
  • SOME/IP-SD中IPv4端点选项与IPv4 SD端点选项
  • 突破超强回归模型,高斯过程回归!
  • 使用 BayesFlow 神经网络简化贝叶斯推断的案例分享(二)
  • 无重复字符的最长子串,leetCode热题100,C++实现
  • 【FireCrawl】:本地部署AI爬虫+DIFY集成+V2新特性
  • FFmpeg 不同编码的压缩命令详解
  • 速卖通自养号测评系统开发指南:环境隔离与行为模拟实战
  • 测试-用例篇
  • FFMPEG AAC
  • 【LeetCode每日一题】19. 删除链表的倒数第 N 个结点 24. 两两交换链表中的节点
  • Java内存模型下的高性能锁优化与无锁编程实践指南
  • 几种特殊的数字滤波器---原理及设计
  • 【零碎小知识点 】(四) Java多线程编程深入与实践
  • MongoDB主从切换实战:如何让指定从库“精准”升级为主库?保姆级教程!
  • 36. Ansible变量+管理机密
  • 【Android】使用Handler做多个线程之间的通信
  • Java面试宝典:Redis高并发高可用(集群)
  • 函数,数组与正则表达式
  • Kafka 架构原理
  • 销售事业十年规划,并附上一套能帮助销售成长的「软件工具组合」
  • 【git 基础】detached HEAD state的出现和解决
  • C++11模板优化大揭秘:让你的代码更简洁、更安全、更高效
  • javaScript变量命名规则