当前位置: 首页 > wzjs >正文

毕业设计资源网站无线网络网站dns解析失败

毕业设计资源网站,无线网络网站dns解析失败,一个地址能注册几个公司,安阳县二中录取分数线2022GPU训练 要让模型在 GPU 上训练,主要是将模型和数据迁移到 GPU 设备上。 在 PyTorch 里,.to(device) 方法的作用是把张量或者模型转移到指定的计算设备(像 CPU 或者 GPU)上。 对于张量(Tensor)&#xff1…

 GPU训练
要让模型在 GPU 上训练,主要是将模型和数据迁移到 GPU 设备上。

在 PyTorch 里,.to(device) 方法的作用是把张量或者模型转移到指定的计算设备(像 CPU 或者 GPU)上。

对于张量(Tensor):调用 .to(device) 之后,会返回一个在新设备上的新张量。
对于模型(nn.Module):调用 .to(device) 会直接对模型进行修改,让其所有参数和缓冲区都移到新设备上。在进行计算时,所有输入张量和模型必须处于同一个设备。要是它们不在同一设备上,就会引发运行时错误。并非所有 PyTorch 对象都有 .to(device) 方法,只有继承自 torch.nn.Module 的模型以及 torch.Tensor 对象才有此方法。
RuntimeError: Tensor for argument #1 'input' is on CPU, but expected it to be on GPU 这个常见错误就是输入张量和模型处于不同的设备。

import torchif torch.cuda.is_available():print("CUDA可用!")device_count = torch.cuda.device_count()print(f"可用的CUDA设备数量: {device_count}")current_device = torch.cuda.current_device()print(f"当前使用的CUDA设备索引: {current_device}")device_name = torch.cuda.get_device_name(current_device)print(f"当前CUDA设备的名称: {device_name}")cuda_version = torch.version.cudaprint(f"CUDA版本: {cuda_version}")print("cuDNN版本:", torch.backends.cudnn.version())else:print("CUDA不可用。")iris = load_iris()
X = iris.data 
y = iris.target  
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)from sklearn.preprocessing import MinMaxScaler
scaler = MinMaxScaler()
X_train = scaler.fit_transform(X_train)
X_test = scaler.transform(X_test)X_train = torch.FloatTensor(X_train).to(device)
y_train = torch.LongTensor(y_train).to(device)
X_test = torch.FloatTensor(X_test).to(device)
y_test = torch.LongTensor(y_test).to(device)class MLP(nn.Module):def __init__(self):super(MLP, self).__init__()self.fc1 = nn.Linear(4, 10)self.relu = nn.ReLU()self.fc2 = nn.Linear(10, 3)def forward(self, x):out = self.fc1(x)out = self.relu(out)out = self.fc2(out)return outmodel = MLP().to(device)criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.01)num_epochs = 20000
losses = []
start_time = time.time()for epoch in range(num_epochs):outputs = model(X_train)loss = criterion(outputs, y_train)optimizer.zero_grad()loss.backward()optimizer.step()losses.append(loss.item())if (epoch + 1) % 100 == 0:print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')time_all = time.time() - start_time
print(f'Training time: {time_all:.2f} seconds')plt.plot(range(num_epochs), losses)
plt.xlabel('Epoch')
plt.ylabel('Loss')
plt.title('Training Loss over Epochs')
plt.show()

能够优化的只有数据传输时间,针对性解决即可,很容易想到2个思路:
1. 直接不打印训练过程的loss了,但是这样会没办法记录最后的可视化图片,只能肉眼观察loss数值变化。
2. 每隔200个epoch保存一下loss,不需要20000个epoch每次都打印,

下面先尝试第一个思路:

import torch
import torch.nn as nn
import torch.optim as optim
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
import numpy as npiris = load_iris()
X = iris.data 
y = iris.target  
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)from sklearn.preprocessing import MinMaxScaler
scaler = MinMaxScaler()
X_train = scaler.fit_transform(X_train)
X_test = scaler.transform(X_test)X_train = torch.FloatTensor(X_train)
y_train = torch.LongTensor(y_train)
X_test = torch.FloatTensor(X_test)
y_test = torch.LongTensor(y_test)class MLP(nn.Module): def __init__(self): super(MLP, self).__init__() self.fc1 = nn.Linear(4, 10)  self.relu = nn.ReLU()self.fc2 = nn.Linear(10, 3)  def forward(self, x):out = self.fc1(x)out = self.relu(out)out = self.fc2(out)return outmodel = MLP()criterion = nn.CrossEntropyLoss()optimizer = optim.SGD(model.parameters(), lr=0.01)num_epochs = 20000 losses = []import time
start_time = time.time() for epoch in range(num_epochs): outputs = model.forward(X_train)  # outputs = model(X_train) loss = criterion(outputs, y_train) optimizer.zero_grad() loss.backward(optimizer.step() if (epoch + 1) % 100 == 0:print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')time_all = time.time() - start_time
print(f'Training time: {time_all:.2f} seconds')

优化后发现确实效果好,近乎和用cpu训练的时长差不多。所以可以理解为数据从gpu到cpu的传输占用了大量时间。

下面尝试下第二个思路:

import torch
import torch.nn as nn
import torch.optim as optim
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import MinMaxScaler
import time
import matplotlib.pyplot as pltdevice = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
print(f"使用设备: {device}")iris = load_iris()
X = iris.data 、
y = iris.target 、X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)scaler = MinMaxScaler()
X_train = scaler.fit_transform(X_train)
X_test = scaler.transform(X_test)X_train = torch.FloatTensor(X_train).to(device)
y_train = torch.LongTensor(y_train).to(device)
X_test = torch.FloatTensor(X_test).to(device)
y_test = torch.LongTensor(y_test).to(device)class MLP(nn.Module):def __init__(self):super(MLP, self).__init__()self.fc1 = nn.Linear(4, 10)  self.relu = nn.ReLU()self.fc2 = nn.Linear(10, 3) def forward(self, x):out = self.fc1(x)out = self.relu(out)out = self.fc2(out)return outmodel = MLP().to(device)criterion = nn.CrossEntropyLoss()、
optimizer = optim.SGD(model.parameters(), lr=0.01)num_epochs = 20000 、losses = []start_time = time.time() 、for epoch in range(num_epochs):outputs = model(X_train)  、loss = criterion(outputs, y_train)optimizer.zero_grad()loss.backward()optimizer.step()if (epoch + 1) % 200 == 0:losses.append(loss.item()) # item()方法返回一个Python数值,loss是一个标量张量print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')if (epoch + 1) % 100 == 0:print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')time_all = time.time() - start_time  、
print(f'Training time: {time_all:.2f} seconds')plt.plot(range(len(losses)), losses)
plt.xlabel('Epoch')
plt.ylabel('Loss')
plt.title('Training Loss over Epochs')
plt.show()


文章转载自:

http://UjFnDkJ5.zxqqx.cn
http://o8qTSzrk.zxqqx.cn
http://v3hmPK7l.zxqqx.cn
http://LwgESPCf.zxqqx.cn
http://7Elv5tId.zxqqx.cn
http://hGFCg4qg.zxqqx.cn
http://kbIkOpZc.zxqqx.cn
http://jWhCwF9D.zxqqx.cn
http://mdAadV82.zxqqx.cn
http://ZcKNUZsf.zxqqx.cn
http://J3kzcMyN.zxqqx.cn
http://0fegNpzM.zxqqx.cn
http://LIV73Z6N.zxqqx.cn
http://2RSPC6Bd.zxqqx.cn
http://iM6hJOBb.zxqqx.cn
http://qCf1g2HP.zxqqx.cn
http://3RF1nQwn.zxqqx.cn
http://O3RK4MCq.zxqqx.cn
http://RnWhFRhZ.zxqqx.cn
http://M9QbqzUr.zxqqx.cn
http://uEebYGx7.zxqqx.cn
http://hEGVOo4b.zxqqx.cn
http://k04I1t7F.zxqqx.cn
http://6EXvY5fF.zxqqx.cn
http://SJcucU0x.zxqqx.cn
http://iatZOyXo.zxqqx.cn
http://zWfuzWZl.zxqqx.cn
http://eHLXZEee.zxqqx.cn
http://rGFMjxMM.zxqqx.cn
http://R2UdC4ov.zxqqx.cn
http://www.dtcms.com/wzjs/682002.html

相关文章:

  • 建设微网站项目报告免费黄页网站
  • 创建网站的成本在线玩网页游戏
  • 先做网站后台还是前台wordpress 二级分类
  • wordpress站名在哪改superstore wordpress主题
  • 5 还有网站的域免费域名申请平台
  • 织梦网站首页空白服务器网站开发过程
  • 做3d兼职网站万州网站建设果园路
  • 关于旅游网站策划书wordpress怎么做网站
  • 广东省省建设厅网站wordpress免费 模板
  • 做网站怎么投放广告网站内容由什么组成部分组成
  • 网站建设推广一对一服务普通电脑怎么做网站服务器吗
  • 服装设计网站免费查指数
  • 个体工商户做网站扁平化网站建设公司
  • 网站手机版跳转代码企业网站推广联系方式
  • 泸州北京网站建设博客网站注册
  • 网站界面设计套题新增网站推广
  • 做数据可视化图的网站推广平台哪个好
  • 站群管理如何做网页推广的网页
  • 自己能否建立公司网站菏泽网站建设菏泽众皓
  • php免费网站系统管理者必备的三大能力
  • 网站开发怎么使用维语wordpress发布pdf
  • 苏州网站运营公司晋江网站建设公司
  • 成都建设路小学网站自定义建设网站
  • 洛阳网站排名各大网站网址
  • 上海做网站培训班成品短视频app的推荐功能
  • 陕西企业电脑网站制作建网站卖东西
  • 北京网站建设公司 蓝纤科技无备案网站可以做百度推广
  • 可以做ppt的网站有哪些wordpress hook
  • 网站开发后端书籍免费h5响应式网站搭建
  • 网站建设比较好的多少钱wordpress appcan