当前位置: 首页 > wzjs >正文

网络公司网站推广电商推广平台

网络公司网站推广,电商推广平台,大连建设委员会网站,wordpress访问地址修改这篇简明扼要的文章是关于PyTorch中的tensor.view()方法的介绍与应用,与reshape()方法的区别,同时给出示例进行详细解释。 Tensor基础 Tensor(张量)的视图是一个新的Tensor,它与原始Tensor共享相同的底层数据,但具有不同的形状或…

这篇简明扼要的文章是关于PyTorch中的tensor.view()方法的介绍与应用,与reshape()方法的区别,同时给出示例进行详细解释。

Tensor基础

Tensor(张量)的视图是一个新的Tensor,它与原始Tensor共享相同的底层数据,但具有不同的形状或大小。view()方法用于在不改变其数据的情况下将张量重塑为新的形状。它返回原始张量的新视图。这意味着修改新的张量会影响原来的张量,反之亦然。
在这里插入图片描述

语法:

Tensor.view(*shape) -> Tensor
  • self:想要重塑的输入Tensor。
  • *shape:一个torch.Size对象或指定输出张量所需形状的整数序列。还可以使用-1从其他维度推断一个维度的大小。

然而,Tensor.view()仅适用于连续张量,即存储在连续内存中的张量。如果输入张量不是连续的,则需要在调用tensor .view()之前调用tensor.consecuous()。你可以通过调用tensor.is_consecuous()来检查张量是否是连续的。

代码示例

下面演示如何在实践中使用tensor.view()方法:

>>> import torch
>>> torch.manual_seed(2023)
>>> # Create a tensor with the shape of 4x4
>>> x = torch.randn(4, 4)
>>> print(x)
tensor([[ 0.4305, -0.3499,  0.4749,  0.9041],[-0.7021,  1.5963,  0.4228, -0.6940],[ 0.9672,  1.5569, -2.3860,  0.6994],[-1.0325, -2.6043,  0.9337, -0.1050]])
>>> y = x.view(16)
>>> print(y)
tensor([ 0.4305, -0.3499,  0.4749,  0.9041, -0.7021,  1.5963,  0.4228, -0.6940,0.9672,  1.5569, -2.3860,  0.6994, -1.0325, -2.6043,  0.9337, -0.1050])
>>> z=x.view(2,8)
>>> print(z)
tensor([[ 0.4305, -0.3499,  0.4749,  0.9041, -0.7021,  1.5963,  0.4228, -0.6940],[ 0.9672,  1.5569, -2.3860,  0.6994, -1.0325, -2.6043,  0.9337, -0.1050]])
>>> w=x.view(-1,2)
>>> print(w)
tensor([[ 0.4305, -0.3499],[ 0.4749,  0.9041],[-0.7021,  1.5963],[ 0.4228, -0.6940],[ 0.9672,  1.5569],[-2.3860,  0.6994],[-1.0325, -2.6043],[ 0.9337, -0.1050]])
>>> 

你可以看到y和x有相同的数据,但形状不同,是16x1。Z和x有相同的数据,但形状不同,是2x8。W和x有相同的数据,但形状不同,是8x2。w的最后一个维度是从其他维度和x中的元素数量推断出来的。

Torch.view()和torch.reshape()的区别

torch.reshape()函数和tensor .view()方法之间的区别在于torch.reshape()可以返回原始张量的视图或副本,具体取决于新形状是否与原始形状和步幅兼容,而tensor .view()总是返回原始张量的视图,但仅适用于连续张量。

当你想重塑一个张量而不担心它的连续性或复制行为时,你应该使用torch.reshape(),当你想重塑一个连续张量并确保它与原始张量共享相同的数据时,你应该使用tensor. view()。

示例对比

场景 1:数据连续时,两者行为一致
import torch# 创建一个连续存储的张量 (2x3)
x = torch.tensor([[1, 2, 3], [4, 5, 6]])
print("原始形状:", x.shape)      # (2, 3)
print("是否连续:", x.is_contiguous())  # True# 使用 view 改变形状 (3x2)
y = x.view(3, 2)
print("view 结果:", y)           # [[1, 2], [3, 4], [5, 6]]# 使用 reshape 改变形状 (3x2)
z = x.reshape(3, 2)
print("reshape 结果:", z)        # [[1, 2], [3, 4], [5, 6]]

结果一致,且未复制数据(is_contiguous() 返回 True)。

场景 2:数据不连续时,view 失败,reshape 成功
# 转置后数据不再连续(原按行存储,转置后按列逻辑访问)
x_transposed = x.t()
print("转置后形状:", x_transposed.shape)      # (3, 2)
print("是否连续:", x_transposed.is_contiguous())  # False# 尝试用 view 改变形状 → 报错!
try:y = x_transposed.view(2, 3)
except RuntimeError as e:print("view 错误:", str(e))  # "invalid argument: cannot view a non-contiguous tensor as ..."# 使用 reshape 成功(自动复制数据)
z = x_transposed.reshape(2, 3)
print("reshape 结果:", z)         # [[1, 4], [2, 5], [3, 6]]
print("是否连续:", z.is_contiguous())  # True
场景 3:reshape 的灵活性(使用 -1
# 不确定某一维度的大小时,仅用 reshape
x_2d = torch.randn(4, 6)  # 形状 (4, 6)
# 将最后一维压缩为总和,剩余维度自动推断
y = x_2d.reshape(-1, 3)   # 结果形状: (8, 3)
print(y.shape)              # torch.Size([8, 3])

因此,我们应优先用 view:当数据连续且形状明确时,view 更高效(零复制);优先用 reshape:需处理非连续数据、动态推断维度或不确定形状时。

http://www.dtcms.com/wzjs/130208.html

相关文章:

  • 公司给别人做的网站违法的吗公众号推广合作平台
  • 上海做设计公司网站河北百度seo点击软件
  • 企业做淘宝客网站有哪些徐州seo培训
  • 免费模板下载网站天津百度整站优化服务
  • 日本风格网站设计qq推广链接生成
  • 想在百度上做网站广州seo外包公司
  • 宝塔建站网址北京、广州最新发布
  • 做自己的优惠券网站制作app软件平台
  • 网站页面的滑动怎么做淘宝店铺推广
  • 网站建设发帖论坛社区如何提升关键词的自然排名
  • 展示网站模版源码网站关键词排名优化
  • 成都网站建设 冠辰网站建设北京快速优化排名
  • WordPress设置域名出错上海百度seo优化
  • 网站建设网站制作公司十大禁止安装应用入口
  • 建立网站对吗成都业务网络推广平台
  • 免费php模板网站找客源免费用哪个软件好
  • 游戏网站建设的策划外链提交
  • 做茶网站整合营销方案
  • wordpress 伪静态规则 nginxwindows优化大师软件介绍
  • 中国诚信建设网站互联网营销师怎么报名
  • 域名已买 可以找其它人做网站吗站长号
  • 汕尾建设网站微信广告朋友圈投放
  • 教育网页设计模板seo的基本步骤顺序正确的是
  • site网站连通率0%怎么解决游戏推广员每天做什么
  • 杭州网站设计 site谷歌浏览器入口
  • 斗鱼网站的实时视频是怎么做的seo优化设计
  • 上海网页设计公司哪儿济南兴田德润有活动吗青岛seo全网营销
  • 邯郸seo推广seo百度网站排名研究中心关键词首页优化
  • 视频网站自己怎么做鞍山seo优化
  • 深圳市官网网站建设报价沧浪seo网站优化软件