当前位置: 首页 > wzjs >正文

网站的服务器怎么做2023推广平台

网站的服务器怎么做,2023推广平台,武汉网站关键词优化,电子商务网站建设 项目规划书深度学习双雄对决:PyTorch vs TensorFlow 自定义层大比拼 目录 深度学习双雄对决:PyTorch vs TensorFlow 自定义层大比拼一、TensorFlow 实现 DNN1. 核心逻辑 二、PyTorch 实现自定义层1. 核心逻辑 三、关键差异对比四、总结 一、TensorFlow 实现 DNN 1…

深度学习双雄对决:PyTorch vs TensorFlow 自定义层大比拼



一、TensorFlow 实现 DNN

1. 核心逻辑

  • 直接继承 tf.keras.layers.Layer:无需中间类,直接在 build 中定义多层结构。
  • 动态参数管理:通过 add_weight 注册每一层的权重和偏置。
import tensorflow as tfclass CustomDNNLayer(tf.keras.layers.Layer):def __init__(self, hidden_units, output_dim, **kwargs):super(CustomDNNLayer, self).__init__(**kwargs)self.hidden_units = hidden_unitsself.output_dim = output_dimdef build(self, input_shape):# 输入层到第一个隐藏层self.w1 = self.add_weight(name='w1', shape=(input_shape[-1], self.hidden_units[0]),initializer='random_normal',trainable=True)self.b1 = self.add_weight(name='b1',shape=(self.hidden_units[0],),initializer='zeros',trainable=True)# 隐藏层之间self.ws = []self.bs = []for i in range(len(self.hidden_units) - 1):self.ws.append(self.add_weight(name=f'w{i+2}', shape=(self.hidden_units[i], self.hidden_units[i+1]),initializer='random_normal',trainable=True))self.bs.append(self.add_weight(name=f'b{i+2}',shape=(self.hidden_units[i+1],),initializer='zeros',trainable=True))# 输出层self.wo = self.add_weight(name='wo',shape=(self.hidden_units[-1], self.output_dim),initializer='random_normal',trainable=True)self.bo = self.add_weight(name='bo',shape=(self.output_dim,),initializer='zeros',trainable=True)def call(self, inputs):x = tf.matmul(inputs, self.w1) + self.b1x = tf.nn.relu(x)for i in range(len(self.hidden_units) - 1):x = tf.matmul(x, self.ws[i]) + self.bs[i]x = tf.nn.relu(x)x = tf.matmul(x, self.wo) + self.boreturn x

二、PyTorch 实现自定义层

1. 核心逻辑

  • 继承 nn.Module:自定义层本质是模块的组合。
  • 使用 nn.ModuleList:动态管理多个 nn.Linear 层。
import torch
import torch.nn as nnclass CustomPyTorchDNN(nn.Module):def __init__(self, input_size, hidden_sizes, output_size):super(CustomPyTorchDNN, self).__init__()self.hidden_layers = nn.ModuleList()prev_size = input_size# 动态添加隐藏层for hidden_size in hidden_sizes:self.hidden_layers.append(nn.Linear(prev_size, hidden_size))prev_size = hidden_size# 输出层self.output_layer = nn.Linear(prev_size, output_size)def forward(self, x):for layer in self.hidden_layers:x = torch.relu(layer(x))x = self.output_layer(x)return x

三、关键差异对比

维度TensorFlow 实现PyTorch 实现
类继承方式直接继承 tf.keras.layers.Layer,无中间类。继承 nn.Module,通过 nn.ModuleList 管理子模块。
参数管理build 中显式注册每层权重(add_weight)。自动注册所有 nn.Linear 参数(无需手动操作)。
前向传播定义通过 call 方法逐层计算,需手动处理每层的权重和激活函数。通过 forward 方法逐层调用 nn.Linear,激活函数手动插入。
灵活性更底层,适合完全自定义逻辑(如非线性变换、特殊参数初始化)。更简洁,适合快速构建标准网络结构。
训练流程需手动实现训练循环(反向传播 + 优化器)。需手动实现训练循环(与 TensorFlow 类似)。

四、总结

  • TensorFlow:通过直接继承 tf.keras.layers.Layer,可实现完全自定义的 DNN,但需手动管理多层权重和激活逻辑,适合对模型细节有严格控制需求的场景。
  • PyTorch:通过直接继承 nn.Module,可实现完全自定义的 DNN;利用 nn.ModuleListnn.Linear 的组合,能高效构建标准 DNN 结构,代码简洁且易于扩展,适合快速原型开发和研究场景。

两种实现均满足用户对“直接继承核心类 + 使用基础组件”的要求,可根据具体任务选择框架。

http://www.dtcms.com/wzjs/293110.html

相关文章:

  • 莘县网站建设价格如何自己免费制作网站
  • 苏州营销型网站万网查询
  • 爱民网站制作页面优化
  • 南坪网站建设哪里好seo最好的工具
  • 丰台网站建设公司电话从事网络营销的公司
  • 哈尔滨创寻网站建设西安seo公司哪家好
  • 怎么看一个网站用什么系统做的优化快速排序
  • 武汉站建设拼多多关键词排名查询工具
  • 做视频链接的网站吗逆冬黑帽seo培训
  • 868868域名查询赣州seo外包怎么收费
  • 简单商业网站模板2024年的新闻
  • 电子商务网站建设干货整站优化排名
  • html5网站制作编辑源码谷歌账号注册入口官网
  • 做县城门户网站陕西网页设计
  • 广州网站建设公司推荐乐云seo百度关键词查询排名怎么查
  • 在网站做网管工作都做什么软文写作实训总结
  • 在县城做团购网站天津提升专业关键词排名
  • 揭阳企业建站服务公司seo推广软
  • 东莞数据线厂家东莞网站建设seo 百度网盘
  • 湖南高端网站建设产品推广找哪家公司
  • 集团公司网站建设方案今天最新新闻事件报道
  • 益阳有专做网站的吗长沙官网seo技术厂家
  • 昆山网站制作 微博网络宣传推广方案
  • 网站建设几大技巧关键词优化的最佳方法
  • 产品网站建设广州网络营销推广
  • 酒店专业培训网站建设关键词排名代做
  • 网页设计与制作模块1课后答案天津seo技术教程
  • 优质的南昌网站设计友情链接qq群
  • 松江网站建设公司怎么样客源引流推广
  • 在线效果图设计宝鸡seo