当前位置: 首页 > news >正文

站长工具高清有吗网推获客平台

站长工具高清有吗,网推获客平台,php网站开发淮安招聘,三亚政策最新消息07.自动求导(与课程对应) 1、导入torch import torch 2、假设我们想对函数 y 2x.Tx,就是 2乘x的内积,关于列向量x求导,也就是4x x torch.arange(4.0) # (1)创建一个列向量 x print("…

07.自动求导(与课程对应)

1、导入torch

import torch

2、假设我们想对函数 y = 2x.Tx,就是 2乘x的内积,关于列向量x求导,也就是4x

x = torch.arange(4.0)  # (1)创建一个列向量 x
print("x:", x)
x.requires_grad_(True)  # (2)在我们计算 y 关于 x 的梯度之前,我们需要一个地方来存储梯度
# 等价于:x = torch.arange(4.0, requires_grad=True)
x.grad  # 默认值是None
y = 2 * torch.dot(x, x)  # (3)现在计算 y
print("y:", y)
y.backward()  # (4)通过调用反向传播函数来自动计算 y 关于 x 每个分量的梯度
x.grad  # (5)求完导数之后,通过 x.grad 来访问求完的导数
print("x.grad == 4*x:", x.grad == 4*x)  # (6)验证求导是否正确

运行结果:

3、现在让我们计算 x 的另一个函数,续上边

x.grad.zero_()  # (1)在默认情况下,pytorch会累积梯度,我们需要清除之前的值;pytorch里下划线表示函数重写我的内容,此处代码表示把0写入到梯度里面
y = x.sum()
y.backward()
print("x.grad:", x.grad)

运行结果:

4、对非标量调用 backward 需要传入一个 gradient 参数,该参数指定微分函数

x.grad.zero_()
y = x * x
y.sum().backward()  # 深度学习中,我们的目的不是计算微分矩阵,而是批量中每个样本单独计算的偏导数之和
print("x.grad:", x.grad)

运行结果:

5、将某些计算移动到记录的计算图之外

x.grad.zero_()
y = x * x
u = y.detach()  # 把 y 当作一个常数,而不是关于 x 的函数
z = u * x
z.sum().backward()
print("x.grad == u:", x.grad == u)x.grad.zero_()
y.sum().backward()  # 直接 y 对 x 求导
print("x.grad == 2 * x:", x.grad == 2 * x)

运行结果:

6、即使构建函数的计算图需要通过python控制流(例如,条件、循环或任意函数调用),我们仍然可以计算得到的变量的梯度

def f(a):b = a * 2while b.norm() < 1000:b = b * 2if b.sum() > 0:c = belse:c = 100 * breturn ca = torch.randn(size=(), requires_grad=True)  # a是个随机数,size=()代表是标量,requires_grad=True需要存储梯度
d = f(a)
d.backward()
print("d.grad:", a.grad == d / a)

运行结果:

7、完整代码:

import torch# 1、假设我们想对函数 y = 2x.Tx,就是 2乘x的内积,关于列向量x求导,就是4x
x = torch.arange(4.0)  # (1)创建一个列向量 x
print("x:", x)
x.requires_grad_(True)  # (2)在我们计算 y 关于 x 的梯度之前,我们需要一个地方来存储梯度
# 等价于:x = torch.arange(4.0, requires_grad=True)
x.grad  # 默认值是None
y = 2 * torch.dot(x, x)  # (3)现在计算 y
print("y:", y)
y.backward()  # (4)通过调用反向传播函数来自动计算 y 关于 x 每个分量的梯度
x.grad  # (5)求完导数之后,通过 x.grad 来访问求完的导数
print("x.grad == 4*x:", x.grad == 4*x)  # (6)验证求导是否正确# 2、现在让我们计算 x 的另一个函数,续上边
x.grad.zero_()  # (1)在默认情况下,pytorch会累积梯度,我们需要清除之前的值;pytorch里下划线表示函数重写我的内容,此处代码表示把0写入到梯度里面
y = x.sum()
y.backward()
print("x.grad:", x.grad)# 3、对非标量调用 backward 需要传入一个 gradient 参数,该参数指定微分函数
x.grad.zero_()
y = x * x
y.sum().backward()  # 深度学习中,我们的目的不是计算微分矩阵,而是批量中每个样本单独计算的偏导数之和
print("x.grad:", x.grad)# 4、将某些计算移动到记录的计算图之外
x.grad.zero_()
y = x * x
u = y.detach()  # 把 y 当作一个常数,而不是关于 x 的函数
z = u * x
z.sum().backward()
print("x.grad == u:", x.grad == u)x.grad.zero_()
y.sum().backward()  # 直接 y 对 x 求导
print("x.grad == 2 * x:", x.grad == 2 * x)# 即使构建函数的计算图需要通过python控制流(例如,条件、循环或任意函数调用),我们仍然可以计算得到的变量的梯度
def f(a):b = a * 2while b.norm() < 1000:b = b * 2if b.sum() > 0:c = belse:c = 100 * breturn ca = torch.randn(size=(), requires_grad=True)  # a是个随机数,size=()代表是标量,requires_grad=True需要存储梯度
d = f(a)
d.backward()
print("d.grad:", a.grad == d / a)

如果此文章对您有所帮助,那就请点个赞吧,收藏+关注 那就更棒啦,十分感谢!!!

http://www.dtcms.com/a/582813.html

相关文章:

  • 网站做流量的论坛贴吧广东广东网站建设工作
  • 中国机械加工网下载番禺seo
  • 如何让美颜SDK更智能?AI赋能下的个性化美颜功能设计详解
  • 软件开发模型——瀑布式模型:软件开发的经典范式及其现代实践
  • 网站集约化建设讲话上海知名的网站建设
  • WordPress建站要花钱七牛图片处理 wordpress
  • 认识linux -- 调试器 - gdb/cgdb的使用
  • 神经流形:大脑功能几何基础的革命性视角
  • 杭州做网站外包公司网站建设实训报告总结
  • 高新区建设局网站网站建设与开发试卷
  • 测试跟踪步骤描述用例交互优化,MeterSphere开源持续测试工具v2.10.26 LTS版本发布
  • CSMA(aloha)
  • 衡水做网站优化黄页网址大全免费
  • 苍穹外卖 —— Spring Cache和购物车功能开发
  • 建设网站毕业设计河南城乡建设厅网站证书查询
  • 留言网站模板沈阳百度seo代理
  • top域名的网站打不开平台软件
  • 新开传奇手游网站大全jn建站系统官网
  • 【AI安全】提示词注入
  • 两个人做类似的梦 网站咨询类网站建设方案书
  • 企业年报详情查询API——在线查询企业年报信息的可靠工具
  • StarGAN标签是怎么传给神经网络的?作为数据中的一个或几个维度吗?
  • 重庆忠县网站建设公司哪家专业移动互联网开发考研方向
  • 基于图扑自研 HT 搭建的园区元宇宙可视化管理平台
  • wordpress dux 下载一键优化清理神器
  • 北京网站排名优化公司美工做任务网站
  • 广州企业网站建设公司哪家好东莞网站推广多少钱
  • 【Go】--log模块的使用
  • 交互式参数控制面板:Panel与Bokeh Server深度解析
  • Java基础——递归思想