当前位置: 首页 > wzjs >正文

惠州哪家做网站比较好合理使用说明

惠州哪家做网站比较好,合理使用说明,越秀区做网站,个人怎么注册家族公司知识点回顾: 随机张量的生成:torch.randn函数卷积和池化的计算公式(可以不掌握,会自动计算的)pytorch的广播机制:加法和乘法的广播机制 ps:numpy运算也有类似的广播机制,基本一致 **…

知识点回顾:

  1. 随机张量的生成:torch.randn函数
  2. 卷积和池化的计算公式(可以不掌握,会自动计算的)
  3. pytorch的广播机制:加法和乘法的广播机制

ps:numpy运算也有类似的广播机制,基本一致

  • **torch.randn**:快速生成随机张量,适用于初始化和数据增强。
  • 卷积与池化:通过滑动窗口提取局部特征,公式决定输出尺寸。
  • 广播机制:自动扩展维度,简化代码逻辑,提升计算效率。

    1. ​随机张量的生成:torch.randn 函数

    torch.randn 是 PyTorch 中用于生成服从标准正态分布(均值为 0,标准差为 1)的随机数的函数。其核心参数是张量的形状(*size),其他参数如数据类型、设备(CPU/GPU)等为可选配置。

    关键特性:
  • 形状参数:通过 *size 指定张量维度,例如 torch.randn(3, 4) 生成一个 3x4 的张量。
  • 可选参数
    • dtype:数据类型(默认 float32)。
    • device:指定设备(如 cuda:0 表示 GPU)。
    • requires_grad:是否跟踪梯度(默认 False)。
  • 应用场景:初始化神经网络权重、生成随机噪声等。
  • import torch# 生成 2x3 的标准正态分布张量
    tensor = torch.randn(2, 3)
    print(tensor)# 生成均值为 2、标准差为 0.5 的正态分布张量
    custom_tensor = torch.randn(2, 2, mean=2, std=0.5)
    print(custom_tensor)

    2. ​卷积和池化的计算公式

    卷积和池化是深度学习中常用的特征提取操作,其核心是滑动窗口内的数学运算。

    卷积计算公式​(以一维为例):

    离散卷积公式:
    (f∗g)(n)=∑if(i)⋅g(n−i)(f * g)(n) = \sum_{i} f(i) \cdot g(n-i)(f∗g)(n)=∑i​f(i)⋅g(n−i)

  • 输入信号:长度为 MMM 的序列 xxx。
  • 卷积核:长度为 NNN 的滤波器 hhh。
  • 输出长度:M+N−1M + N - 1M+N−1(无填充且步长为 1)。
  • PyTorch 中的卷积参数

  • kernel_size:卷积核大小。
  • stride:滑动步长。
  • padding:填充大小。
  • dilation:卷积核元素间距。
  • 池化计算公式

    池化操作通过降维减少计算量,常用最大池化(Max Pooling)和平均池化(Average Pooling)。

  • 输出尺寸
    Oheight=⌊Hin+2P−KS+1⌋O_{height} = \left\lfloor \frac{H_{in} + 2P - K}{S} + 1 \right\rfloorOheight​=⌊SHin​+2P−K​+1⌋
    Owidth=⌊Win+2P−KS+1⌋O_{width} = \left\lfloor \frac{W_{in} + 2P - K}{S} + 1 \right\rfloorOwidth​=⌊SWin​+2P−K​+1⌋
    • Hin/WinH_{in}/W_{in}Hin​/Win​:输入高度/宽度。
    • K:池化核大小。
    • S:步长。
    • P:填充大小。
  • 示例:

    输入特征图尺寸为 28×2828 \times 2828×28,使用 2×22 \times 22×2 的最大池化(步长 2,无填充),输出尺寸为 14×1414 \times 1414×14。

  • 3. ​PyTorch 的广播机制

    广播机制允许不同形状的张量进行逐元素运算(如加法、乘法),无需显式扩展内存。

    广播规则
  • 维度对齐:从右向左逐一对齐维度,若维度大小相等或其中一个为 1,则兼容。
  • 扩展维度:若张量缺少某维度,则在左侧补 1。
  • 扩展大小为 1 的维度:将大小为 1 的维度扩展为另一张量的对应维度大小。
  • a = torch.tensor([[1, 2, 3], [4, 5, 6]])  # 形状 (2, 3)
    b = torch.tensor([10, 20, 30])            # 形状 (3,)# 广播后 b 的形状变为 (2, 3)
    result = a + b
    print(result)
    # 输出:
    # tensor([[11, 22, 33],
    #         [14, 25, 36]])

http://www.dtcms.com/wzjs/109643.html

相关文章:

  • 我在学校志愿队做网站的经历互联网怎么赚钱
  • 杭州下沙开发区建设局网站浏览器网站大全
  • 建设 展示型企业网站常用的网站推广方法
  • 网站建设供应商广州百度关键词推广
  • 网站做点击广告是怎么回事网站seo培训
  • 苏州怎么制作网页网站甘肃省seo关键词优化
  • 做淘宝优惠券怎么有网站源码交易网站源码
  • 阿里云虚拟主机做多个网站必应bing搜索引擎
  • 深圳有哪些做网站的公司百度高级搜索引擎入口
  • 建设电子商务网站总结百度搜索指数排行榜
  • 全球域名深圳做seo有哪些公司
  • .net开发微信网站网站换了域名怎么查
  • 做网站什么价位怎样在百度发广告贴
  • 网站项目遇到的问题seo常见优化技术
  • 分类信息网站建设多少钱如何做市场推广方案
  • 沈阳做网站优化百度搜索下载安装
  • 吉林省人民政府文件南宁seo外包服务商
  • 佛山市建网站做网站费用怎么给自己的公司建立网站
  • 免费b站动漫推广网站2023免费推客推广平台
  • 加强网站信息内容建设的意见营销软文范例500
  • 学院网站建设的需求分析编程培训机构加盟哪家好
  • 建立网站的是什么人免费b站网站推广
  • 东莞飞天网站设计公司竹子建站官网
  • 疫情最新进展石狮seo
  • 做冷库用什么网站发帖子好怀柔网站整站优化公司
  • 站酷网站源码百度首页排名代发
  • 网站建设与维护税率org域名注册
  • 如何做网站图片小红书推广费用一般多少
  • 做垂直行业网站利润分析搜索引擎营销的典型案例
  • 网站建设与运营毕业论文收录情况