当前位置: 首页 > wzjs >正文

站长工具备案查询谷歌广告投放教程

站长工具备案查询,谷歌广告投放教程,川制作官方网站,网站企业快速备案训练时需要梯度,推理时不需要怎么理解“梯度”?计算图以及前向后向传播 训练时需要梯度,推理时不需要 阶段是否计算梯度是否反向传播是否更新参数用例写法训练✅✅✅loss 训练默认即可,requires_gradTrue推理❌❌❌采样、预测、部…

    • 训练时需要梯度,推理时不需要
    • 怎么理解“梯度”?
    • 计算图以及前向后向传播

训练时需要梯度,推理时不需要

阶段是否计算梯度是否反向传播是否更新参数用例写法
训练loss 训练默认即可,requires_grad=True
推理采样、预测、部署@torch.inference_mode()with torch.no_grad()
  • 训练阶段必须开启梯度计算

    • 计算 loss(损失函数)
    • 然后通过 loss.backward()反向传播(backpropagation)
    • 更新模型参数(optimizer.step()
  • 推理阶段(inference)不需要梯度计算,关闭它可以节省内存、提高速度

    • 只需要执行 forward,得到模型输出(如预测轨迹、采样结果)
    • 不再需要 loss,也不需要更新模型参数

@torch.inference_mode() 是 PyTorch 中用于 推理模式(inference mode) 的一个装饰器,主要功能是:临时关闭梯度计算(比 torch.no_grad() 更高效),用于模型推理阶段,加快速度、降低显存占用。
它和 @torch.no_grad() 类似,但更彻底:

  • torch.no_grad() 禁用梯度计算(不会构建计算图)
  • torch.inference_mode() 也禁用梯度计算,但还能避免某些内部缓冲区的额外开销,性能更好
@torch.inference_mode()
def predict(model, inputs):return model(inputs)

在这里插入图片描述

  • PyTorch 会在每次 forward 过程中,构建一棵 计算图(computation graph),记录每一步的操作,方便后面 loss.backward() 自动求导。
    • 一旦调用 loss.backward(),它会从最后一层反推回去,自动算出所有参数的梯度。
    • @torch.inference_mode()with torch.no_grad() 会告诉 PyTorch:我只是 forward 看看结果,不要帮我建计算图了!

扩展:How Computational Graphs are Executed in PyTorch

怎么理解“梯度”?

可以用一个简单直觉的比喻,把模型看成一个“函数机器”:它输入是数据(如图片、状态),输出是预测结果(如轨迹、控制信号)。

梯度 = 模型输出对参数的敏感程度(变化率)

比如:模型预测错了,就会计算:

loss = 模型输出 - 真实值

此时我们想知道:

如果我改变模型的参数,loss 会变大还是变小?

这就需要计算 loss 对模型参数的导数 —— 这就是梯度

举个例子

loss = (y_pred - y_true)**2

我们希望让 loss 趋近于 0。那我们就问:

  • loss模型参数 θ 的梯度是多少?
  • 梯度大 -> 表示参数的变化对 loss 影响大
  • 梯度小 -> 表示参数已经趋于最优了

然后 用这些梯度反过来更新模型

θ_new = θ_old - learning_rate * gradient

这就是 “梯度下降” 的核心思想。

用 PyTorch 来举个最简单的例子:

import torch# 模拟一个参数 θ
theta = torch.tensor([2.0], requires_grad=True)# 输入数据
x = torch.tensor([3.0])# Forward:计算 y = theta * x
y = theta * x# 假设目标输出是 y_true
y_true = torch.tensor([10.0])# 计算 loss
loss = (y - y_true) ** 2# 反向传播
loss.backward()# 查看梯度
print("梯度:", theta.grad)  # 显示 ∂loss/∂theta  # 梯度: tensor([-48.])

说明此时:

  • 当前 θ 是 2 时,lossθ 的导数是 -48,代表 “要往更大的方向调 θ

计算图以及前向后向传播

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

扩展:PyTorch – Computational graph and Autograd with Pytorch

http://www.dtcms.com/wzjs/512530.html

相关文章:

  • 网站首页 动画案例app推广代理加盟
  • 中国建设银行数据管理部网站sem竞价代运营公司
  • 东台哪家专业做网站国产最好的a级suv88814
  • 做淘宝客没网站小视频网站哪个可以推广
  • asp网站开发实例哪里有网站推广优化
  • 个人网页制作实验报告最彻底的手机优化软件
  • 微网站制作工具有哪些注册公司网站
  • 网络营销跟网站推广有啥区别山西百度查关键词排名
  • 找人做网站要密码吗石家庄新闻最新消息
  • 国际传媒网站设计网站收录查询代码
  • 权威的南通网站建设网页制作源代码
  • 电影里的做视频在线观看网站sem推广软件哪家好
  • 手机版网站的优势seo方法培训
  • 全栈网站开发流程图外国网站开放的浏览器
  • 网站300兆是多少大连最好的做网站的公司
  • 建网站的流程费用公司网站怎么优化
  • 企业做定制网站的好处seo关键词外包公司
  • 沈阳网络公司排名seo是什么意思电商
  • 个人做网站接装修活哪个网站好百度平台电话
  • 网站建设与设计致谢google官网入口手机版
  • 网站建设问题大全河北网站seo地址
  • 怎么做自助购物网站网站seo关键词设置
  • wordpress本地浏览慢爱站网seo工具
  • 从旁鼓动人做某事 网站网络舆情监控系统
  • 新民专业网站开发公司网站制作流程
  • 做网站运营需要会什么seo外包网络公司
  • 个人主页网站模板百度引擎搜索推广
  • 优秀网站建设模板模板网站建设
  • 河北网站开发公司免费b2b信息发布网站
  • 湖北移动网站建设做一个个人网站