当前位置: 首页 > news >正文

6.11打卡

知识点回顾:

1.随机张量的生成:torch.randn函数

2.卷积和池化的计算公式(可以不掌握,会自动计算的)

3.pytorch的广播机制:加法和乘法的广播机制

ps:numpy运算也有类似的广播机制,基本一致

作业:自己多借助ai举几个例子帮助自己理解即可

import torch# 生成一个2x3的随机张量,元素来自标准正态分布
a = torch.randn(2, 3)
print("随机张量a:\n", a)# 生成一个3维随机张量,形状为(2,2,3)
b = torch.randn(2, 2, 3)
print("\n3维随机张量b:\n", b)
import torch.nn as nn# 输入张量 (batch_size=1, channels=1, height=5, width=5)
input = torch.randn(1, 1, 5, 5)# 卷积层示例
conv = nn.Conv2d(1, 1, kernel_size=3, stride=1, padding=0)
output = conv(input)
print(f"\n卷积前形状: {input.shape}, 卷积后形状: {output.shape}")# 最大池化示例
pool = nn.MaxPool2d(kernel_size=2, stride=2)
output = pool(input)
print(f"池化前形状: {input.shape}, 池化后形状: {output.shape}")
# 示例1:张量与标量
a = torch.tensor([1.0, 2.0, 3.0])
b = 2.0
print("\n张量加标量:", a + b)  # [3.0, 4.0, 5.0]# 示例2:不同形状张量
c = torch.tensor([[1, 2, 3], [4, 5, 6]])  # 形状(2,3)
d = torch.tensor([10, 20, 30])            # 形状(3,)
print("\n不同形状张量相加:\n", c + d)  # [[11,22,33], [14,25,36]]# 示例3:乘法广播
e = torch.tensor([[1], [2], [3]])  # 形状(3,1)
f = torch.tensor([4, 5])           # 形状(2,)
print("\n乘法广播结果:\n", e * f)  # [[4,5], [8,10], [12,15]]

@浙大疏锦行

相关文章:

  • 湖北理元理律师事务所企业债务优化路径:司法重整中的再生之道
  • 低代码平台的版本管理深度解析
  • python训练营打卡第50天
  • 从源码角度了解Lucene(倒排索引存储结构)
  • 江苏艾立泰以技术创新破解全球环保合规难题 打开出口企业绿色转型大门
  • leetcode 768. 最多能完成排序的块 II
  • JavaScript解密里的ChaCha20 加密算法全解
  • 从原理到代码:深度解析YOLOv8的QualityFocalLoss改进方案
  • C++显性契约与隐性规则:类型转换
  • 网络层 IP协议(第一部分)
  • JSON Schema 2020-12 介绍
  • Web前端基础之HTML
  • C++ call_once用法
  • 第四章无线通信网
  • QDialog的show()方法与exec_()方法的区别详解
  • BUUCTF两道目录包含题目
  • Go 协程(Goroutine)入门与基础使用
  • Maven 之 打包项目时没有使用本地仓库依赖问题
  • JAVA(Day_4
  • 使用 Pandas 进行数据聚合与操作:从合并到可视化的全面指南
  • 图片网站建设/百度关键词热度查询工具
  • 域名与网站的区别/郑州官网网站优化公司
  • 网站备案登陆/厦门seo搜索排名
  • 教育培训机构网站建设/今天重要新闻
  • 做福利网站违法吗/今日桂林头条新闻
  • 像wordpress一样的网站/个人博客网站设计毕业论文