当前位置: 首页 > wzjs >正文

贵州一帆建设工程有限公司网站备案后修改网站名称

贵州一帆建设工程有限公司网站,备案后修改网站名称,wordpress的中英文,商务网站规划与建设的目的知识点回归: CPU性能的查看:看架构代际、核心数、线程数 GPU性能的查看:看显存、看级别、看架构代际 GPU训练的方法:数据和模型移动到GPU device上 类的call方法:为什么定义前向传播时可以直接写作self.fc1(x) CPU性…

知识点回归:

  1. CPU性能的查看:看架构代际、核心数、线程数
  2. GPU性能的查看:看显存、看级别、看架构代际
  3. GPU训练的方法:数据和模型移动到GPU device上
  4. 类的call方法:为什么定义前向传播时可以直接写作self.fc1(x)

    CPU性能的查看

    上述是在cpu的情况下训练,(即使安装了cuda,但是没有使用cuda),我们借这个机会简单介绍下cpu的性能差异。

  5. # pip install wmi -i https://pypi.tuna.tsinghua.edu.cn/simple
    # 这是Windows专用的库,Linux和MacOS不支持,其他系统自行询问大模型
    # 我想查看一下CPU的型号和核心数
    import wmic = wmi.WMI()
    processors = c.Win32_Processor()for processor in processors:print(f"CPU 型号: {processor.Name}")print(f"核心数: {processor.NumberOfCores}")print(f"线程数: {processor.NumberOfLogicalProcessors}")

 

GPU训练

要让模型在 GPU 上训练,主要是将模型和数据迁移到 GPU 设备上。

在 PyTorch 里,.to(device) 方法的作用是把张量或者模型转移到指定的计算设备(像 CPU 或者 GPU)上。

  • 对于张量(Tensor):调用 .to(device) 之后,会返回一个在新设备上的新张量。
  • 对于模型(nn.Module):调用 .to(device) 会直接对模型进行修改,让其所有参数和缓冲区都移到新设备上。

 在进行计算时,所有输入张量和模型必须处于同一个设备。要是它们不在同一设备上,就会引发运行时错误。并非所有 PyTorch 对象都有 .to(device) 方法,只有继承自 torch.nn.Module 的模型以及 torch.Tensor 对象才有此方法。

RuntimeError: Tensor for argument #1 'input' is on CPU, but expected it to be on GPU

这个常见错误就是输入张量和模型处于不同的设备。

如何衡量GPU的性能好坏呢?

以RTX 3090 Ti, RTX 3080, RTX 3070 Ti, RTX 3070, RTX 4070等为例

通过“代” 前两位数字代表“代”: 40xx (第40代), 30xx (第30代), 20xx (第20代)。“代”通常指的是其底层的架构 (Architecture)。每一代新架构的发布,通常会带来工艺制程的进步和其他改进。也就是新一代架构的目标是在能效比和绝对性能上超越前一代同型号的产品。

通过级别 后面的数字代表“级别”,

xx90: 通常是该代的消费级旗舰或次旗舰,性能最强,显存最大 (如 RTX 4090, RTX 3090)。
xx80: 高端型号,性能强劲,显存较多 (如 RTX 4080, RTX 3080)。
xx70: 中高端,甜点级,性能和价格平衡较好 (如 RTX 4070, RTX 3070)。
xx60: 主流中端,性价比较高,适合入门或预算有限 (如 RTX 4060, RTX 3060)。
xx50: 入门级,深度学习能力有限。
通过后缀 Ti 通常是同型号的增强版,性能介于原型号和更高一级型号之间 (如 RTX 4070 Ti 强于 RTX 4070,小于4080)。

通过显存容量 VRAM (最重要!!) 他是GPU 自身的独立高速内存,用于存储模型参数、激活值、输入数据批次等。单位通常是 GB(例如 8GB, 12GB, 24GB, 48GB)。如果显存不足,可能无法加载模型,或者被迫使用很小的批量大小,从而影响训练速度和效果

训练阶段:小批量梯度是对真实梯度的一个有噪声的估计。批量越小,梯度的方差越大(噪声越大)。显存小只能够使用小批量梯度。
推理阶段:有些模型本身就非常庞大(例如大型语言模型、高分辨率图像的复杂 CNN 网络)。即使你将批量大小减到 1,模型参数本身占用的显存可能就已经超出了你的 GPU 显存上限。

import torch# 检查CUDA是否可用
if torch.cuda.is_available():print("CUDA可用!")# 获取可用的CUDA设备数量device_count = torch.cuda.device_count()print(f"可用的CUDA设备数量: {device_count}")# 获取当前使用的CUDA设备索引current_device = torch.cuda.current_device()print(f"当前使用的CUDA设备索引: {current_device}")# 获取当前CUDA设备的名称device_name = torch.cuda.get_device_name(current_device)print(f"当前CUDA设备的名称: {device_name}")# 获取CUDA版本cuda_version = torch.version.cudaprint(f"CUDA版本: {cuda_version}")# 查看cuDNN版本(如果可用)print("cuDNN版本:", torch.backends.cudnn.version())else:print("CUDA不可用。")
CUDA可用!
可用的CUDA设备数量: 1
当前使用的CUDA设备索引: 0
当前CUDA设备的名称: NVIDIA GeForce RTX 2060 SUPER
CUDA版本: 12.1
cuDNN版本: 90100

@浙大疏锦行 

 

 

 

http://www.dtcms.com/wzjs/546703.html

相关文章:

  • 烟台h5网站建设wordpress页面是什么
  • 狐表做网站品牌推广外包
  • 石家庄自助建站模板幽默软文经典案例300
  • 网站的个人网盘怎么做做婚庆策划的网站
  • 网站建设7个基本流程图阿里邮箱企业版app下载
  • 天津网站建设哪个好个人网上注册公司流程图
  • 网站报名怎么做做网站没有手机端
  • wordpress怎么导入demo文件夹seo收费低
  • 南通网站建设兼职四位分享码2023
  • 建设食品网站如何定位如何很好的进行网站的内部推广
  • 网站开发高级工程师专业牧风的在wordpress
  • 怎么给网站添加关键词长沙软件培训机构排名前十
  • 做拍福利爱福利视频网站fw网页制作教程
  • 大理做网站哪家好一般网站模块
  • 哈尔滨专门做网站新媒体营销的方式
  • 网上商城可行性分析报告东营网站seo服务
  • 怎么架构网站2022年楼市最新消息
  • 万网网站备案北京网站优化实战
  • 重庆营销网站建设公司排名旅游网站设计内容
  • 生肖竞猜网站建设人社部能力建设中心网站
  • h5网站开发中心培训方案怎么做
  • 东莞专业做网站为客户做网站的方案
  • 太原制作微信网站网上接装修工程哪家平台好
  • 如何自建网站入口中国建设银行网站荆门网点查询系统
  • 厦门市同安区建设局网站用手机免费制作app软件有哪些
  • 哪里有卖自己做的网站脚本语言在网站开发中
  • 3合1网站建设公司网站建设优化经验
  • 密云做网站的对网站建设展望
  • 做招聘海报的网站廊坊哪里有做网站的
  • 建设一个门户网站需要多久docker查看wordpress