当前位置: 首页 > news >正文

深度学习3-pytorch学习

深度学习3-pytorch学习

Tensor 定义与 PyTorch 操作

1. Tensor 定义:

Tensor 是 PyTorch 中的数据结构,类似于 NumPy 数组。可以通过不同方式创建 tensor 对象:

import torch

# 定义一个 1D Tensor
x1 = torch.Tensor([3, 4])

# 定义一个 Float 类型的 Tensor
x2 = torch.FloatTensor([4, 4])

# 使用正态分布随机生成 Tensor
x3 = torch.randn(3, 4)
print(x1)
print(x2)
print(x3)
2. PyTorch 与 NumPy 之间的转换:

可以使用 torch.from_numpy().numpy() 方法在 PyTorch Tensor 和 NumPy 数组之间进行转换:

import numpy as np

# 创建一个 NumPy 数组
numpy_tensor = np.random.randn(10, 20)

# 将 NumPy 数组转换为 PyTorch Tensor
pytorch_tensor = torch.from_numpy(numpy_tensor)

# 将 PyTorch Tensor 转换为 NumPy 数组
new_numpy_tensor = pytorch_tensor.numpy()
3. GPU 和 CPU 之间的转换:

PyTorch 支持在 GPU 上进行计算,可以通过 .cuda() 方法将 Tensor 转移到 GPU,使用 .cpu() 将其转回 CPU:

x = torch.randn(3, 4)

# 转移到 GPU(GPU 0)
x_gpu = x.cuda(0)

# 转移到 GPU(GPU 1)
x_gpu = x.cuda(1)

# 转回 CPU
x_cpu = x_gpu.cpu()

# 转换为 NumPy 数组
x_array = x_gpu.cpu().numpy()
4. Tensor 的形状和维度:

可以使用 .shape.size() 查看 Tensor 的维度和形状,unsqueezesqueeze 方法分别用于增加和减少维度:

x = torch.randn(4, 3)

# 查看形状
print(x.shape)

# 增加一个维度
x_unsqueezed = x.unsqueeze(1)
print(x_unsqueezed.shape)  # 形状变为 [4, 1, 3]

# 减少一个维度
x_squeezed = x_unsqueezed.squeeze()
print(x_squeezed.shape)  # 形状变回 [4, 3]
5. Tensor 的高级操作:
  • 求最大值和索引:
max_index, max_value = torch.max(x, dim=1)  # 获取每行的最大值和索引
print(max_index)
print(max_value)
  • 求和:
sum_tensor = torch.sum(x, dim=1, keepdim=True)  # 求每行的和
print(sum_tensor)
6. 求梯度:

Tensor 的 requires_grad_() 方法使得 Tensor 可以追踪梯度,允许进行反向传播(自动求导):

x = torch.tensor(3.0, requires_grad=True)
y = x**2

# 求导
y.backward()

# 打印梯度
print(x.grad)  # 输出:tensor(6.)

注意: 求得的梯度会累积,如果不清零会对后续计算产生影响。

python复制编辑x.grad = torch.tensor(0.0)  # 清空梯度
y2 = x**2
y2.backward()
print(x.grad)  # 输出:tensor(6.)
7. 创建不同类型的 Tensor:
# 创建全为 1 的 Tensor
tensor1 = torch.ones((10, 4))
print(tensor1)

# 创建全为 0 的 Tensor
tensor2 = torch.zeros((10, 4))
print(tensor2)

# 创建正态分布随机值的 Tensor
tensor3 = torch.normal(0, 0.1, (4, 10, 4))
print(tensor3)
8. Variable:

为了构建神经网络,PyTorch 引入了 Variable 类,主要用于对 Tensor 进行自动求导操作。Variable 包含了三个重要属性:

  • .data:用于访问 Tensor。
  • .grad:用于访问梯度(导数)。
  • .grad_fn:描述如何计算这个 Variable。
from torch.autograd import Variable

# 创建 Variable
x = Variable(torch.ones(2, 2), requires_grad=True)
y = Variable(torch.ones(2, 2), requires_grad=True)
z = torch.sum(x + y)

# 查看数据
print(z.data)

# 反向传播
z.backward()

# 打印梯度
print(x.grad)
9. 动态图/静态图

PyTorch 采用动态图(Dynamic Computation Graph)的方式,每次计算时都会重新构建计算图,这样便于调试,而 TensorFlow 则使用静态图(Static Computation Graph),在定义计算图之后执行。这使得 PyTorch 更适合快速开发和调试。

  • Tensor 是 PyTorch 中最基本的数据结构,类似于 NumPy 数组,但可以在 GPU 上进行加速计算。
  • PyTorch 提供了丰富的 Tensor 操作,如求最大值、求和、改变形状、求梯度等。
  • Variable 是 Tensor 的高级封装,它使得 PyTorch 在进行梯度计算时更加灵活。
  • 动态计算图使得 PyTorch 在调试和开发时非常方便,但相较于 TensorFlow 的静态图,可能会稍慢。

相关文章:

  • python学习笔记--实现简单的爬虫(二)
  • AutoImageProcessor代码分析
  • Python设计模式 - 适配器模式
  • 二十四、实战开发 uni-app x 项目(仿京东)- 前后端实现登录注册
  • 在线生成自定义二维码
  • 失物招领|校园失物招领系统|基于Springboot的校园失物招领系统设计与实现(源码+数据库+文档)
  • 【 <二> 丹方改良:Spring 时代的 JavaWeb】之 Spring Boot 中的异常处理:全局异常与自定义异常
  • 【自学笔记】Linux基础知识点总览-持续更新
  • 利用Dify编制用户问题意图识别和规范化回复
  • C#单例模式
  • 常考计算机操作系统面试习题(二)(中)
  • Windows——电脑无法正常上网的一种解决办法
  • 统计学重要概念:自由度
  • 《Python实战进阶》第43集:使用 asyncio 实现异步编程
  • Amdahl 定律
  • react 中 key 的使用
  • 抗积分饱和(Anti-Windup)常见的处理方法
  • SpringBoot原理篇-SpringBoot配置优先级-Bean管理-起步依赖原理-自动配置两种方案-源码跟踪-自定义starter
  • 不同的CMS系统开源许可证对二次开发有哪些具体的限制?
  • 运维面试题(七)
  • 我的诗歌阅读史
  • 华尔兹转岗与鲁比奥集权:特朗普政府人事震荡背后的深层危机
  • 2025年五一档电影新片票房破3亿
  • 讲武谈兵|朝鲜“崔贤”号驱逐舰下水,朝版“宙斯盾”战力如何?
  • 马上评|扩大高速免费救援范围,打消出行后顾之忧
  • 摩天大楼天津117大厦复工背后:停工近十年,未知挑战和压力仍在