当前位置: 首页 > wzjs >正文

营销网站建设的公司谷歌广告怎么投放

营销网站建设的公司,谷歌广告怎么投放,企业商务网站建设论文,个人网站建设服务器目录 一、reshape 1. 什么是 Reshape? 2. Reshape 的核心作用 ​① 数据适配 ​② 维度对齐 ​③ 特征重组 3. Reshape 的数学表示 4.代码示例 5.permute()方法 6.view()方法 7. Reshape 的注意事项 ​① 数据连续性 ​② 维度顺序 ​③ 性能优化 二、s…

目录

一、reshape

1. 什么是 Reshape?

2. Reshape 的核心作用

​① 数据适配

​② 维度对齐

​③ 特征重组

3. Reshape 的数学表示

 4.代码示例

5.permute()方法

 6.view()方法

7. Reshape 的注意事项

​① 数据连续性

​② 维度顺序

​③ 性能优化

 二、sequenze 和 unequenze

1. Sequence(序列)是什么?

2. Unsequence(非序列)是什么?

1. 填充(Padding)​

三、concat、stack、expand 和 flatten

1. concat(拼接)​

​功能​

关键点​

2. stack(堆叠)​

​功能​

关键点​

3. expand(扩展)​

​功能​

关键点​

4. flatten(展平)​

​功能​

关键点​

5. 对比总结

四、pointwise

五、split和slice


一、reshape

返回一个具有与输入相同的数据和元素数量,但具有指定形状的张量。如果可能的话,返回的张量将是输入的视图。否则,它将是一个副本。连续的输入和具有兼容步幅的输入可以进行重塑而无需复制,但您不应依赖于复制与视图行为。

1. 什么是 Reshape?

  • 核心功能:改变张量的维度(形状),但不改变其元素内容和存储顺序。
  • 数学本质:通过重新排列索引,将原张量映射到新的形状空间。

2. Reshape 的核心作用

① 数据适配
  • 将数据转换为模型输入要求的形状(如 [batch_size, channels, height, width])。
  • 示例:将 [100, 784](MNIST 图像展平)转换为 [100, 1, 28, 28]
② 维度对齐
  • 在矩阵乘法、卷积等操作中,确保输入张量的维度匹配。
  • 示例:将 [3, 5, 5] 转换为 [3, 1, 5, 5] 以适配卷积层。
③ 特征重组
  • 提取特定维度的特征(如将 [batch, height, width, channels] 转换为 [batch, channels, height, width])。

3. Reshape 的数学表示

  • 输入形状(N, C_in, H_in, W_in)
  • 输出形状(N, C_out, H_out, W_out)
  • 关键约束:N×Cin​×Hin​×Win​=N×Cout​×Hout​×Wout​即总元素数量必须保持不变。

 4.代码示例

# 输入:[2, 3, 5, 5]
x = torch.randn(2, 3, 5, 5)# Reshape to [2, 15, 5]
y = x.reshape(2, -1, 5)
print(y.shape)  # torch.Size([2, 15, 5])

5.permute()方法

  • 功能:重新排列张量的轴顺序(不改变元素值)。
# 输入:[batch=2, channels=3, height=5, width=5]
x = torch.randn(2, 3, 5, 5)# 将 channels 和 height 交换
y = x.permute(0, 2, 1, 3)  # 输出形状:[2, 5, 3, 5]
print(y.shape)

 6.view()方法

  • 功能:返回一个与原张量共享内存的新视图(需数据连续)。
import torch# 输入:[batch=2, channels=3, height=5, width=5]
x = torch.randn(2, 3, 5, 5)# Reshape to [2, 15, 5](3 * 5=15)
y = x.view(2, -1, 5)  # -1 表示自动计算剩余维度
print(y.shape)  # torch.Size([2, 15, 5])

7. Reshape 的注意事项

① 数据连续性
  • view():要求原张量数据连续,否则会报错。
  • reshape():允许非连续数据,但会复制内存,可能影响性能。
② 维度顺序
  • 使用 permute() 时需明确指定轴顺序,避免逻辑错误。
③ 性能优化
  • 尽量使用 view() 而非 reshape() 以复用内存。

 二、sequenze 和 unequenze

1. Sequence(序列)是什么?

  • 定义:按顺序排列的数据,每个元素之间存在时间或逻辑上的依赖关系。
  • 常见场景
    • 自然语言处理(NLP)​:句子、单词序列。
    • 时间序列分析:股票价格、传感器数据。
    • 语音识别:音频信号帧序列。
  • 数学形式:X=[x1​,x2​,...,xT​],其中 T 是序列长度。

2. Unsequence(非序列)是什么?

  • 定义:无顺序依赖的数据,元素之间是独立或空间相关的。
  • 常见场景
    • 图像分类:二维像素矩阵。
    • 无监督聚类:客户分群、文档分类。
    • 图神经网络(GNN)​:节点间无固定顺序的图结构。

 3. 序列 vs 非序列的核心差异

维度序列非序列
数据依赖时间/逻辑顺序敏感无顺序依赖
典型任务文本生成、语音识别、时间序列预测图像分类、目标检测、聚类
常用模型RNN、LSTM、TransformerCNN、GCN、全连接层
输入形状[batch, T, ...](T为序列长度)[batch, C, H, W](C为通道数)

 4. 序列数据的处理方法

1. 填充(Padding)​
  • 目的:将不同长度的序列统一到相同长度。
import torch.nn.utils.rnn as rnn_utils# 输入序列:batch=2, 最大长度=5
sequences = [torch.randn(3),    # 序列1(长度3)torch.randn(5)     # 序列2(长度5)
]# 填充到长度5,用0填充
padded = rnn_utils.pad_sequence(sequences, batch_first=True)
print(padded.shape)  # torch.Size([2, 5, ...])

2.打包(Packing)​

  • 目的:仅保留有效数据,忽略填充部分,提升计算效率。
# 输入序列和长度掩码
lengths = [3, 5]
packed = rnn_utils.pack_padded_sequence(sequences, lengths, batch_first=True)# 解包输出
output, output_lengths = rnn_utils.unpack_packed_sequence(packed)

三、concat、stack、expand 和 flatten

1. concat(拼接)​

功能

沿指定维度将多个张量连接成一个更大的张量,不改变原有维度

import torch# 定义两个二维张量
a = torch.tensor([[1, 2], [3, 4]])
b = torch.tensor([[5, 6], [7, 8]])# 沿第0维(行方向)拼接
concatenated = torch.cat([a, b], dim=0)
print(concatenated)
# 输出:
# tensor([[1, 2],
#        [3, 4],
#        [5, 6],
#        [7, 8]])
关键点
  • 输入张量的其他维度必须一致。
  • 结果形状:(N+M, ...), 其中 N 和 M 是拼接张量的大小。

2. stack(堆叠)​

功能

沿新维度将多个张量堆叠成更高维度的张量,新增一个维度

import torcha = torch.tensor([[1, 2], [3, 4]])
b = torch.tensor([[5, 6], [7, 8]])# 沿新维度(第1维)堆叠
stacked = torch.stack([a, b], dim=1)
print(stacked)
# 输出:
# tensor([[[1, 2],
#          [3, 4]],
#         [[5, 6],
#          [7, 8]]])
关键点
  • 所有输入张量的形状必须完全相同。
  • 结果形状:(K, ...,),其中 K 是堆叠的张量数量。

3. expand(扩展)​

功能

通过广播机制,将张量在指定维度上重复元素,不复制数据​(仅创建视图)。

import torch# 原始张量:[1, 2]
x = torch.tensor([1, 2])# 在第0维扩展2倍,得到 [1, 2, 1, 2]
expanded = x.expand(2, -1)
print(expanded)  # tensor([1, 2, 1, 2])# 在第1维扩展3倍,得到 [[1,1,1], [2,2,2]]
expanded_2d = x.unsqueeze(1).expand(-1, 3)
print(expanded_2d)
# tensor([[1, 1, 1],
#        [2, 2, 2]])
关键点
  • expand 的参数需满足:new_dim_size >= original_dim_size
  • 需先通过 unsqueeze 创建新维度才能扩展。

4. flatten(展平)​

功能

将多维张量压缩为一维或指定维度的连续数组,忽略其他维度

import torch# 原始张量:[2, 3, 4]
x = torch.tensor([[[1, 2], [3, 4]], [[5, 6], [7, 8]]])# 展平为一维
flattened = x.flatten()
print(flattened)
# 输出:
# tensor([1, 2, 3, 4, 5, 6, 7, 8])# 展平到指定维度(保留第0维,合并后两维)
flattened_2d = x.flatten(start_dim=1)
print(flattened_2d)
# 输出:
# tensor([[1, 2, 3, 4],
#        [5, 6, 7, 8]])
关键点
  • start_dim 指定从哪个维度开始展平,默认为 0
  • 展平后张量的总元素数不变。

5. 对比总结

操作核心功能是否改变维度内存消耗典型场景
concat沿指定维度拼接张量否(保持原有维度)低(共享数据)数据合并(如特征拼接)
stack新增维度堆叠张量是(维度+1)中(复制数据)多模型输出堆叠(如图像分割)
expand广播机制扩展元素可能改变维度极低(仅视图)扩展特征图尺寸(如上采样)
flatten压缩多维张量为低维是(降维)低(共享数据)全连接层输入适配

四、pointwise

        Tensor 中逐元素进行的操作,也叫element wise 操作,大部分的activation 算子以及 add、sub、mul、div、sqrt 等都属于pointwise 类别。操作和numpy数组差不多

五、split和slice

将张量分割成多个块。每个块都是原始张量的视图。

import torch
# 创建一个示例张量
tensor = torch.tensor([1, 2, 3, 4, 5, 6, 7, 8, 9, 10])
# 对张量进行切片
slice_tensor = tensor[2:7]  # 从索引2到索引6(不包含7)
print(slice_tensor)  # 输出: tensor([3, 4, 5, 6, 7])
# 使用步长对张量进行切片
step_slice_tensor = tensor[1:9:2]  # 从索引1到索引8(不包含9),步长为2
print(step_slice_tensor)  # 输出: tensor([2, 4, 6, 8])
# 省略起始索引和结束索引来选择整个张量
full_tensor = tensor[:]
print(full_tensor)  # 输出: tensor([1, 2, 3, 4, 5, 6, 7, 8, 9, 10])


文章转载自:

http://hr3tKhxR.zbnts.cn
http://6xBkkaWv.zbnts.cn
http://BmxXgMq4.zbnts.cn
http://BXVqsMpj.zbnts.cn
http://q5sRVEmy.zbnts.cn
http://qUrqj9lB.zbnts.cn
http://2KmE4yjv.zbnts.cn
http://xvXWuze1.zbnts.cn
http://wXetslEM.zbnts.cn
http://OcQ18UXM.zbnts.cn
http://Z9nwGnEm.zbnts.cn
http://4yOGskPk.zbnts.cn
http://EOQoRUAu.zbnts.cn
http://44htKAK7.zbnts.cn
http://EdYOY4GD.zbnts.cn
http://gVbr8wGx.zbnts.cn
http://KvKnWW4R.zbnts.cn
http://TIh44VCR.zbnts.cn
http://nHBdk8dz.zbnts.cn
http://ZiWa3TT8.zbnts.cn
http://Mp25usLE.zbnts.cn
http://gEzsfS0q.zbnts.cn
http://9nqts9Ae.zbnts.cn
http://JQAwWMv4.zbnts.cn
http://GElzBm8H.zbnts.cn
http://5zpRk62o.zbnts.cn
http://NWJ8rLBN.zbnts.cn
http://digKj0e0.zbnts.cn
http://M3oMWWQW.zbnts.cn
http://251Rim07.zbnts.cn
http://www.dtcms.com/wzjs/772588.html

相关文章:

  • 有哪些做网站的公司好西宁市营销网站建设公司
  • 电子商城网站模板win8风格网站模板
  • 贵州城市和城乡建设官方网站那些做黑网站的都是团体还是个人
  • 建设电影会员网站太原网站建设维护
  • 怎样建立自己的网站国外客户推广网站
  • 做暧暧小视频免费网站51link友链
  • 便宜网站建设小程序开发官网
  • 衡阳营养师报考网站龙岗区住房和建设局在线网站
  • 用台电脑做网站欣赏别人做的网站
  • 杭州网站免费制作广州微网站建设怎么样
  • 河北网站备案多久制作图片的软件推荐
  • 大兴模版网站搭建哪家好织梦网站站标
  • 南通做百度网站的公司优化seo教程技术
  • 加强网站技术建设做网站建设业务员怎么样
  • 电子商务网站设计与建设aspcms中引文 网站修改配置
  • 微端网站开发麦肯锡咨询公司
  • 国内电商网站html源码做英文小工具网站赚钱
  • 济宁网站建设多少钱河池城乡住房和建设局网站
  • 西宁网站建设嘉荐君博lwordpress 如何汉化主题
  • 网站开发流程原理兰州网站优化服务
  • word如何做网站链接济宁百度网站建设
  • 设计购物网站咋做怎么分析竞争对手网站
  • 区网站制作宣传片拍摄费用
  • 旅游网站策划案网站建设mfdos 优帮云
  • 网站建立的方式是什么常州百度推广排名优化
  • 钛钢饰品移动网站建设上海公司网站建设哪家好
  • 哪个网站可以做彩经专家官方网站搭建要多少钱
  • 山东网站备案网站非凡网站开发培训
  • 企业站seo点击软件大连网红打卡地
  • 成都网站设计 常凡云网页版传奇怎么开