当前位置: 首页 > wzjs >正文

网站制作的困难与解决方案做网站建设给人销售

网站制作的困难与解决方案,做网站建设给人销售,网站模板套用教程,网站建设实务课本一、张量tensor 张量重新命名一些数据概念,存储数据以及权重和偏置。 张量还允许与数据相关的数学计算能够相对快速的完成。 通常,张量及其进行的数学计算会通过成为图形处理单元(GPUs)的特殊芯片来加速。但还有张量处理单元&am…

一、张量tensor

张量重新命名一些数据概念,存储数据以及权重和偏置。

张量还允许与数据相关的数学计算能够相对快速的完成。

通常,张量及其进行的数学计算会通过成为图形处理单元(GPUs)的特殊芯片来加速。但还有张量处理单元(TPUs)专门处理张量,使得神经网络运行相当更快。

另外,张量通过自动微分处理反向传播。

二、PyTorch

以下部分参考 【深度学习基础】用PyTorch从零开始搭建DNN深度神经网络

 图中的这个神经网络的参数都是训练优化好的,下面我们简便起见,假设最后一个参数b_final没有优化过,初始化为0,我们尝试用Pytorch实现一下对这个参数的优化,将final_bias初始化为0,看看最终这个-16可否被优化出来的。首先引入一些相关的库:

import torch
import torch.nn as nn
import torch.nn.functional as Fimport matplotlib.pyplot as plt
import seaborn as sns

其中torch就是PyTorch框架,matplotlib和seaborn都是用来绘图的库。然后我们定义对照着图中的各个参数,搭建神经网络如下: 

class BasicNN_train(nn.Module):  # 继承父类nn.Moduledef __init__(self):super().__init__()  # 对父类的成员进行初始化self.w00 = nn.Parameter(torch.tensor(1.7), requires_grad=False)self.b00 = nn.Parameter(torch.tensor(-0.85), requires_grad=False)self.w01 = nn.Parameter(torch.tensor(-40.8), requires_grad=False)self.w10 = nn.Parameter(torch.tensor(12.6), requires_grad=False)self.b10 = nn.Parameter(torch.tensor(0.0), requires_grad=False)self.w11 = nn.Parameter(torch.tensor(2.7), requires_grad=False)self.final_bias = nn.Parameter(torch.tensor(0.0), requires_grad=True)# requires_grad=True 表示需要优化def forward(self, input):  # 前向传播input_to_top_relu = input * self.w00 + self.b00top_relu_output = F.relu(input_to_top_relu)scaled_top_relu_output = top_relu_output * self.w01input_to_bottom_relu = input * self.w10 + self.b10bottom_relu_output = F.relu(input_to_bottom_relu)scaled_bottom_relu_output = bottom_relu_output * self.w11input_to_final_relu = scaled_top_relu_output + scaled_bottom_relu_output + self.final_biasoutput = F.relu(input_to_final_relu)return output

然后我们实例化这个网路,设定epoch=100,即最多进行100次前向和反向传播,定义损失函数就是预测值和实际值的平方误差,当损失函数之和低于0.0001时,我们就停止训练(最多训练100轮次),代码如下:

if __name__ == '__main__':model = BasicNN_train()  # 实例化神经网络模型inputs = torch.tensor([0., 0.5, 1.])  # 输入张量labels = torch.tensor([0., 1., 0.])  # 输出张量# 定义一个优化器 optimizer,使用随机梯度下降(SGD)算法来更新模型的参数optimizer = torch.optim.SGD(model.parameters(), lr=0.1)  # 学习率为0.1print("优化前的final_bias是:" + str(model.final_bias.data) + '\n')# 开始训练,最多100轮次for epoch in range(100):total_loss = 0  # 累积当前 epoch 中所有样本的损失值for iteration in range(len(inputs)): # len(inputs) 表示数据集中样本的数量input_i = inputs[iteration]label_i = labels[iteration]output_i = model(input_i) # 前向传播loss = (output_i - label_i) ** 2loss.backward() # 反向传播# 通过反向传播,PyTorch 会自动计算每个参数的梯度,并存储在参数的 .grad 属性中total_loss += float(loss)# 将每个样本的loss加和
  •  backward() 的功能:

        backward() 使用链式法则计算损失函数 loss 对模型参数的梯度。

        loss.backward() 是从 loss 开始,沿着计算图反向传播梯度,最终得到每个参数的梯度值。这些梯度值(数据)会被存储在模型参数的 .grad 属性中,用于后续的参数更新。

  • 正向传播是怎么实现的?

        model(input_i) 会自动调用 model 中定义的 forward 方法。

        在 Python 中,当一个类的实例被“调用”时(例如 model(input_i)),Python 会尝试调用该实例的 __call__ 方法。

        PyTorch 的 nn.Module 类实现了 __call__ 方法。当你调用 model(input_i) 时,实际上是调用了 model.__call__(input_i)。

        if total_loss < 0.0001:print(f"当前是第{epoch}轮次,已经满足total_loss < 0.0001,结束程序。")breakoptimizer.step()  # 使用优化器(如 SGD)更新模型的权重和偏置,以最小化损失函数。optimizer.zero_grad()  # 清除模型参数的梯度。print(f"当前是第{epoch}轮次,此时的final_bias值为{model.final_bias.data},total_loss为{total_loss}")# 画图如下input_doses = torch.linspace(start=0, end=1, steps=11)output_values = model(input_doses)sns.set(style="whitegrid")sns.lineplot(x=input_doses,y=output_values.detach(),color='green',linewidth=2.5)plt.ylabel('Effectiveness')plt.xlabel('Dose')plt.show()print(f"优化后的final_bias值为:{model.final_bias.data}")

最终的输出结果如下:

  一共34轮训练后,就实现了总损失小于0.001的要求,也看到最终的优化结果final_bia大概是-16,与之前我们的结论一致。 损失函数变化曲线如下:

    最终迭代到第34轮次后,实现了最终的效果: 


文章转载自:

http://UNk3uU2l.prhqn.cn
http://PguaCr4L.prhqn.cn
http://XyoNkbjz.prhqn.cn
http://NSv9Qxs5.prhqn.cn
http://KKQI5D5j.prhqn.cn
http://iwDrJlF8.prhqn.cn
http://FU7NIAJm.prhqn.cn
http://7ZH9H6di.prhqn.cn
http://AQYlkQ3n.prhqn.cn
http://GRoOLiEa.prhqn.cn
http://ECp39biE.prhqn.cn
http://DsKJ2Kb6.prhqn.cn
http://GwE48jJO.prhqn.cn
http://u0O4fSuc.prhqn.cn
http://9sWA053y.prhqn.cn
http://tjPwfwwJ.prhqn.cn
http://KFX38O3M.prhqn.cn
http://nh4anBer.prhqn.cn
http://pTncVwAJ.prhqn.cn
http://vnMv3rju.prhqn.cn
http://4XnPlk9Y.prhqn.cn
http://BdpzJRgK.prhqn.cn
http://0R3wZTPk.prhqn.cn
http://Z4YzHBwd.prhqn.cn
http://nXWf5ad9.prhqn.cn
http://DEdv7yV1.prhqn.cn
http://G3cEmAJz.prhqn.cn
http://KQaCyPoU.prhqn.cn
http://qgh9fAAn.prhqn.cn
http://dmbIV9AY.prhqn.cn
http://www.dtcms.com/wzjs/682343.html

相关文章:

  • 阿里云1m服务器可以搭建网站西安3d效果图制作公司
  • 用手机做网站的软件搭建网站免费空间
  • 合肥做网站推荐 晨飞网络100m网站注册
  • 网站一直没收录外贸网站打开速度
  • 品牌网站建设必在大蝌蚪wordpress多榜单查询
  • 马关网站建设残联网站建设方案
  • 自己如何做网站教程北京 网站设计 公司
  • 怎么做网站wordpress被入侵
  • 建设银行网站的机构怎么建网站平台
  • 京紫元年网站建设下载微信小程序app
  • 别人帮做的网站怎么修改湖南天辰建设责任公司网站
  • 南乐网站建设价格网页制作个人主页图片
  • 太原网站专业制作做任务领黄钻的网站
  • 东莞专业营销网站建设推广关键词英文
  • 宁波做公司网站dell公司网站建设的特点
  • 怎么在百度上建立网站卖链接的网站
  • 网站备案 拨测信誉好的苏州网站建设
  • 做二手车网站需要什么视频 怎么做网站
  • 有免费做海报的网站吗建设通网站源码
  • 做网站网站应该注意什么遵义做网站 0852t
  • 网站建设的英文翻译wordpress 主题 seo
  • 什么是响应式网站凡科建设网站
  • 网站接入服务商是什么小橘子被做h网站
  • 浏览器网站免费进入站长平台官网
  • 常州手机网站制作企业形象设计vi手册
  • 免费创建网站带咨询的wordpress本地调试慢
  • asp.net建网站少儿编程培训加盟品牌费用
  • 网站空间绑定域名手机制作视频
  • 网站建设厘金手指排名二一天元建设集团有限公司申请破产
  • 合肥网站搭建工作室asp网站开发实例