当前位置: 首页 > wzjs >正文

外贸订单网站推广可以发布外链的网站

外贸订单网站推广,可以发布外链的网站,网站制作的重要性,廊坊网站seo本文通过实例代码讲解如何在PyTorch中管理神经网络参数,包括参数访问、多种初始化方法、自定义初始化以及参数绑定技术。所有代码可直接运行,适合深度学习初学者进阶学习。 1. 定义网络与参数访问 1.1 定义单隐藏层多层感知机 import torch from torch…

本文通过实例代码讲解如何在PyTorch中管理神经网络参数,包括参数访问、多种初始化方法、自定义初始化以及参数绑定技术。所有代码可直接运行,适合深度学习初学者进阶学习。


1. 定义网络与参数访问

1.1 定义单隐藏层多层感知机

import torch
from torch import nn# 定义单隐藏层多层感知机
net1 = nn.Sequential(nn.Linear(4, 8),  # 输入层4维,隐藏层8维nn.ReLU(),nn.Linear(8, 1)   # 输出层1维
)
x = torch.rand(2, 4)  # 随机生成2个4维输入向量
net1(x)                # 前向传播

1.2 访问网络参数

# 访问第二层(索引2)的参数(权重和偏置)
print(net1[2].state_dict())# 查看参数类型、数据和梯度
print(type(net1[2].bias))    # 类型:Parameter
print(net1[2].bias)          # 参数值(含梯度信息)
print(net1[2].bias.data)     # 参数数据(张量)
print(net1[2].bias.grad)     # 梯度(未反向传播时为None)

1.3 批量访问参数

# 访问第一层的参数名称和形状
print(*[(name, param.shape) for name, param in net1[0].named_parameters()])# 访问整个网络的参数
print(*[(name, param.shape) for name, param in net1.named_parameters()])# 通过state_dict直接访问参数数据
print(net1.state_dict()['2.bias'].data)

2. 参数初始化方法

2.1 内置初始化

# 正态分布初始化权重,偏置置零
def init_normal(model):if isinstance(model, nn.Linear):nn.init.normal_(model.weight, mean=0, std=0.01)nn.init.zeros_(model.bias)net1.apply(init_normal)
print(net1[0].weight.data[0], net1[0].bias.data[0])# 常数初始化(权重为1,偏置为0)
def init_constant(model):if isinstance(model, nn.Linear):nn.init.constant_(model.weight, 1)nn.init.zeros_(model.bias)net1.apply(init_constant)
print(net1[0].weight.data[0], net1[0].bias.data[0])

2.2 分层初始化

# 对第一层使用Xavier初始化,第二层使用常数42初始化
def xavier(model):if isinstance(model, nn.Linear):nn.init.xavier_uniform_(model.weight)def init_42(model):if isinstance(model, nn.Linear):nn.init.constant_(model.weight, 42)net1[0].apply(xavier)
net1[2].apply(init_42)
print(net1[0].weight.data[0])
print(net1[2].weight.data)

2.3 自定义初始化

# 自定义初始化:权重在[-10,10]均匀分布,并过滤绝对值小于5的值
def my_init(model):if isinstance(model, nn.Linear):print(f'init weight {model.weight.shape}')nn.init.uniform_(model.weight, -10, 10)model.weight.data *= (model.weight.abs() >= 5)net1.apply(my_init)
print(net1[0].weight.data[:2])  # 显示前两行权重

3. 参数绑定与共享

3.1 直接修改参数

# 直接操作参数数据
net1[0].weight.data[:] += 1     # 所有权重+1
net1[0].weight.data[0, 0] = 42  # 修改特定位置权重
print(net1[0].weight.data[0])   # 输出第一行权重

3.2 参数共享

# 共享线性层参数
shared_layer = nn.Linear(8, 8)
net3 = nn.Sequential(nn.Linear(4, 8), nn.ReLU(),shared_layer, nn.ReLU(),     # 第2层shared_layer, nn.ReLU(),     # 第4层(共享参数)nn.Linear(8, 1)
)# 验证参数共享
print(net3[2].weight.data[0] == net3[4].weight.data[0])  # 输出全True
net3[2].weight.data[0, 0] = 100
print(net3[2].weight.data[0] == net3[4].weight.data[0])  # 修改后仍为True

4. 嵌套网络结构

# 构建嵌套网络
def model1():return nn.Sequential(nn.Linear(4, 8), nn.ReLU(),nn.Linear(8, 4), nn.ReLU())def model2():net = nn.Sequential()for i in range(4):net.add_module(f'model{i}', model1())return netrgnet = nn.Sequential(model2(), nn.Linear(4, 1))
print(rgnet)  # 打印网络结构

总结

本文演示了PyTorch中参数管理的核心操作,包括:

  • 通过state_dictnamed_parameters访问参数

  • 使用内置初始化方法(正态分布、常数、Xavier)

  • 自定义初始化逻辑

  • 参数的直接修改与共享

  • 复杂嵌套网络的定义

掌握这些技能可以更灵活地设计和优化神经网络模型。建议读者在实践中结合具体任务调整初始化策略,并注意参数共享时的梯度传播特性。


提示:以上代码需要在PyTorch环境中运行,建议使用Jupyter Notebook逐步调试以观察中间结果。

http://www.dtcms.com/wzjs/784088.html

相关文章:

  • 定制开发网站北京市网站设计公司网址
  • 白云地网站建设ai的优点和缺点
  • 网站架构师招聘科技公司网页设计素材
  • 卖护肤在哪个网站做宣传好外贸生意做哪个网站好
  • 杭州做网站比较出名的公司网站备案的公司注销了
  • 网站建设推销洛阳建设厅网站
  • 网站建设商品编码是多少微信公众号平台入口官网
  • 建设监理工程师网站做网站挣钱快吗
  • 做预售的网站刚建设的网站多久能在百度查到
  • 网站如何提升用户体验上海公司牌照最新价格
  • 如何建设一个国际化的网站网站在线答题怎么做
  • 网站添加什么东西才能和用户体验怎么用织梦做网站
  • 写的网站怎么做接口新人做网站盈利
  • 58网站怎么做浏览度才高网站优化网站建设公司
  • 福建交科建设有限公司官方网站三合一做网站
  • 做网站需要注册商标多少类十大全app软件下载
  • 网站建设国家有补贴吗广告网页
  • 网站开发要加班吗网龙沧州网站制作
  • 专门做旅游保险的网站网站建设的基本思路
  • 关于加快信用平台网站建设通知小程序网站怎么做
  • 青岛做网站哪家优化好济南外贸网站建设
  • 哪个购物网站最便宜php做大型网站
  • 网站建设需求分析报告撰写深圳光明
  • 酒泉网站建设专家什么是市场营销策划
  • 专做排版网站网站做游戏吗
  • 苏州建网站的公司外包服务小程序怎么放在桌面
  • 免费软件下载网站排行制作相片的免费软件
  • 沈阳的网站制作公司wordpress添加头像
  • 专门教ps的网站网站建设检查
  • 接收新网站如何做诊断通信公司网站建设