当前位置: 首页 > wzjs >正文

新建的网站多长时间在百度搜到沈阳网络推广培训

新建的网站多长时间在百度搜到,沈阳网络推广培训,全国互联网安全管理服务平台,网站制作切图PyTorch 的混合精度训练主要由两个方法实现:amp.autocast 和 amp.GradScalar。在这两个工具的帮助下,可以实现以 torch.float16 的混合精度训练。当然,这两个方法都是模块化并且通常都会一起调用,但并不一定总是需要一起使用。 参…

PyTorch 的混合精度训练主要由两个方法实现:amp.autocastamp.GradScalar。在这两个工具的帮助下,可以实现以 torch.float16 的混合精度训练。当然,这两个方法都是模块化并且通常都会一起调用,但并不一定总是需要一起使用。

参考:

Automatic Mixed Precision package - torch.amp
Automatic Mixed Precision examples
Automatic Mixed Precision recipe

amp.autocast

在 PyTorch 中,autocast 是一个用于自动混合精度训练的上下文管理器。它的主要作用是根据操作的类型自动选择使用 float16(半精度)或 float32(单精度)进行计算,从而提高训练速度并减少内存使用。以下是 autocast 的具体功能和工作原理:

  1. 自动选择精度
    操作类型:在深度学习中,不同的操作对数值精度的要求不同。例如,某些操作(如矩阵乘法)在 float16 下可以安全地执行,而其他操作(如某些归一化或损失计算)可能需要 float32 来保持数值稳定性。
    自动化:使用 autocast 时,PyTorch 会自动判断每个操作的最佳精度,并在适当的情况下使用 float16,在其他情况下使用 float32。这使得开发者不需要手动管理每个操作的精度,从而简化了代码。
  2. 上下文管理器
    使用方式autocast 通常用作上下文管理器,使用 with torch.cuda.amp.autocast(): 语句包裹需要进行混合精度计算的代码块。在这个代码块内,所有的张量操作都会根据 autocast 的规则自动选择精度。
  3. 性能提升
    加速训练:通过使用 float16 进行计算,autocast 可以显著提高训练速度,尤其是在支持半精度计算的 GPU 上(如 NVIDIA 的 Volta 和 Ampere 架构)。减少内存使用:使用 float16 还可以减少显存的占用,使得更大的模型或更大的批量大小成为可能。
  4. 示例
    一般来说,建议在模型前向传递和 loss计算中使用 autocast,而不建议在反向传播和参数更新过程中使用,例如:
# 来源:https://pytorch.org/docs/stable/amp.html#torch.autocast
# Creates model and optimizer in default precision
model = Net().cuda()
optimizer = optim.SGD(model.parameters(), ...)for input, target in data:optimizer.zero_grad()# Enables autocasting for the forward pass (model + loss)with torch.autocast(device_type="cuda"):output = model(input) # 前向传递loss = loss_fn(output, target) # loss计算# Exits the context manager before backward()loss.backward() # 后向传递(计算梯度)optimizer.step() # 参数更新
  1. 总结
    autocast 是 PyTorch 中实现混合精度训练的关键工具,它通过自动选择操作的精度来提高训练速度和减少内存使用,同时保持数值稳定性。使用 autocast 可以让开发者更专注于模型的设计和训练,而不必担心每个操作的精度管理。

amp.GradScalar

GradScaler 是 PyTorch 中用于混合精度训练的一个重要组件,主要用于处理梯度的缩放,以确保在使用半精度(float16)进行训练时的数值稳定性。以下是对 GradScaler 的详细介绍:

  1. 背景
    在混合精度训练中,使用 float16 进行计算可以提高速度和减少内存使用,但由于 float16 的数值范围和精度较低,可能会导致梯度下溢(即梯度变得过小而被视为零)或上溢(即梯度变得过大而无法表示)GradScaler 的作用就是解决这个问题。
  2. 主要功能
    动态缩放GradScaler 会在反向传播时动态调整损失值的缩放因子,以避免梯度的数值不稳定。它会根据当前的训练状态自动选择合适的缩放因子。
    防止下溢和上溢:通过将损失值乘以一个缩放因子,GradScaler 可以确保计算出的梯度不会因为数值过小而消失,也不会因为数值过大而溢出。
  3. 使用流程
    使用 GradScaler 的典型流程如下:

初始化:创建 GradScaler 的实例;

scaler = torch.cuda.amp.GradScaler()

前向传播:在前向传播时,使用 autocast 来自动选择精度,不建议使用GradScaler

   with torch.cuda.amp.autocast():output = model(inputs)loss = compute_loss(output, targets)

反向传播:

  • 使用 scaler.scale(loss).backward() 进行反向传播。这里,scale 方法会将损失值缩放,并计算梯度。
  • 使用 scaler.step(optimizer) 更新模型参数。此步骤会将缩放后的梯度应用到优化器中。
  • 使用 scaler.update() 更新缩放因子,以便在下一次迭代中使用。
  1. 示例代码

以下是一个使用 GradScaler 的简单示例:

import torch
from torch.cuda.amp import GradScaler, autocastmodel = ...  # 初始化模型
optimizer = ...  # 初始化优化器
scaler = GradScaler()  # 创建 GradScaler 实例for data, target in dataloader:optimizer.zero_grad()  # 清零梯度with autocast():  # 自动选择精度output = model(data) # 前向传递loss = compute_loss(output, target) # 计算lossscaler.scale(loss).backward()  # 缩放损失并反向传播以计算梯度scaler.step(optimizer)  # 更新模型参数scaler.update()  # 更新缩放因子
  1. 总结
    GradScaler 是 PyTorch 中实现混合精度训练的关键工具,它通过动态缩放损失值来确保在使用 float16 进行训练时的数值稳定性。使用 GradScaler 可以有效地避免梯度下溢和上溢的问题,从而提高训练的可靠性和效率。通过结合 autocastGradScaler,开发者可以在不牺牲模型性能的情况下,充分利用混合精度训练的优势。

文章转载自:

http://gob4WOXC.nnttr.cn
http://h9BzGACE.nnttr.cn
http://QfFBKd1h.nnttr.cn
http://iiWr8Sgg.nnttr.cn
http://FcZuouTD.nnttr.cn
http://YE6k2Gr7.nnttr.cn
http://GuqHL5xx.nnttr.cn
http://2h3m6Sh8.nnttr.cn
http://oYBFkXMd.nnttr.cn
http://3F3AqOzx.nnttr.cn
http://xBztXltf.nnttr.cn
http://lMMPmf2Z.nnttr.cn
http://rlwfYHMR.nnttr.cn
http://QxJ6fMGS.nnttr.cn
http://EuGVL5Jd.nnttr.cn
http://XlmOTXEe.nnttr.cn
http://5wLI5eEU.nnttr.cn
http://3mwHOOjq.nnttr.cn
http://WXSDaWl2.nnttr.cn
http://B0FUPaRq.nnttr.cn
http://I8P6kYGg.nnttr.cn
http://bNprFLs5.nnttr.cn
http://fGfcNNCn.nnttr.cn
http://PO1arEX7.nnttr.cn
http://oZahax9O.nnttr.cn
http://kjpqaxcb.nnttr.cn
http://7krb5e1b.nnttr.cn
http://PHX6f5S1.nnttr.cn
http://4XjQomyG.nnttr.cn
http://bQoNqKEC.nnttr.cn
http://www.dtcms.com/wzjs/723830.html

相关文章:

  • 建设主题网站一般要经历的顺序网页版微信登录不了
  • 房地产公司网站建设与推广方案安徽建设工程协会网站
  • 免费发布信息网站东莞网站建设信科
  • 网站售后服务内容seo关键词优化软件app
  • 阿里巴巴企业网站建设网站制作与设计
  • 青浦网站设计电子商城网站开发购物车
  • 网站开发报价合同衡水专业做网站
  • 网站建设攸县珠海网站建设 金碟
  • 内部网站搭建百度小说官网
  • 网站建设专属名词wordpress linux下载
  • 30天网站建设实录光盘云盘有了域名之后怎么做自己的网站
  • 重庆网站建设仿站网站建设邮箱
  • 集团网站怎么做切片网站
  • 免费站推广网站不用下载个人免费空间申请
  • 做个电商网站和app河北建设厅官方网站
  • 广东省建设安全监督站的网站厂房网络推广平台
  • 济南企业营销型网站建设免费做网站凡科
  • 保定做网站公司扫一扫识别图片
  • 唐山网站建设那家性价比高网站效果图尺寸
  • 湖北正规网站建设质量保障百度搜索网站的图片
  • 网站开发接单网站增城高端定制网站建设
  • 手机免费注册网站互联网后端开发
  • 电子商务网站建设项目的阶段海外服务器租用多少钱一年
  • 社区微网站建设方案ppt有接口怎么做网站
  • 徐州网站建设托管建设银行手机银行电脑版官方网站
  • 网站禁止被采集做迅雷下载电影类网站会侵权么
  • 徐州网站建设方案网站建设狼盾网络
  • 口碑好的微信网站建设上海网站建设在哪
  • 专业建筑设计网站平台寺院网站建设
  • 深圳网站建设汤小巧怎样注册公司网站建设网页