当前位置: 首页 > wzjs >正文

asp.net动态网站开发教程pdf宁波谷歌seo

asp.net动态网站开发教程pdf,宁波谷歌seo,湛江北京网站建设,人工智能网页设计pytorch实现逻辑回归 数据准备,参数初始化前向计算计算损失计算梯度更新参数 在官网上找到线性函数的公式表达式 import torch from sklearn.datasets import load_iris # from sklearn.model_selection import train_test_split #train_test_split是sklearn中的…

pytorch实现逻辑回归

  1. 数据准备,参数初始化
  2. 前向计算
  3. 计算损失
  4. 计算梯度
  5. 更新参数

在官网上找到线性函数的公式表达式
在这里插入图片描述

在这里插入图片描述

import torch
from sklearn.datasets import load_iris
# from sklearn.model_selection import train_test_split #train_test_split是sklearn中的一个函数,作用是将数据集划分为训练集和测试集
#数据准备
X, y = load_iris(return_X_y=True) #加载数据,X,y分别为特征和标签
X = X[:100] #取前100个样本
y = y[:100] #取前100个样本#创建张量数据集
tensor_x = torch.tensor(X, dtype=torch.float32)
tensor_y = torch.tensor(y, dtype=torch.float32)#超参数设置
learning_rate = 0.001
epochs = 500#模型参数
w = torch.randn(1, 4, requires_grad=True) #requires_grad=True表示w需要求导,1表示输出维度,4表示输入维度
b = torch.randn(1, requires_grad=True) #1表示输出维度

【注】

  1. 张量是一种容器
  2. 张量也是一种计算的方法,或说操作
  3. grad属性,梯度属性,保存参数梯度值
for i in range(epochs):  #前向计算z = torch.nn.functional.linear(tensor_x, w, b) #线性函数计算#z = torch.matmul(tensor_x, w.t()) + b #线性函数计算z = torch.sigmoid(z) #线性函数转为概率函数0-1之间#损失函数loss = torch.nn.functional.binary_cross_entropy(z.reshape(-1), tensor_y,reduction='mean') #二分类交叉熵损失函数#reduction='mean'表示对每个样本的损失求均值#计算梯度loss.backward() #计算梯度、梯度保存在w.grad和b.grad中#参数更新#with torch.no_grad()表示不需要梯度跟踪,不需要计算梯度,不需要梯度更新#with关键字是上下文管理器,用于简化资源管理,确保资源被及时释放(可以理解为作用域)with torch.no_grad(): #梯度清零,关闭梯度计算跟踪,防止梯度累加w -= learning_rate * w.gradb -= learning_rate * b.grad#梯度清零                w.grad.zero_()b.grad.zero_()#训练动态损失print('train loss:' ,loss.item())
train loss: 0.9154033064842224
train loss: 0.9093276262283325
train loss: 0.9033000469207764
train loss: 0.8973206877708435
train loss: 0.891389787197113
train loss: 0.8855075240135193
train loss: 0.8796738982200623
train loss: 0.873889148235321
train loss: 0.8681536912918091......
train loss: 0.37976446747779846
train loss: 0.37959033250808716
train loss: 0.3794163167476654
train loss: 0.379242479801178
train loss: 0.3790687322616577
train loss: 0.37889519333839417
train loss: 0.378721684217453
train loss: 0.37854844331741333
train loss: 0.3783752918243408
train loss: 0.37820228934288025
w.grad #查看w的梯度
tensor([[0., 0., 0., 0.]])

二元交叉熵计算损失维度要相同,不然报错,去掉维度
z.reshape(-1).shape #将z展平
z.squeeze().shape #将z压缩(去掉维度为1的维度)


torch.Size([100])

完整代码

import torch
from sklearn.datasets import load_iris
#数据准备
X, y = load_iris(return_X_y=True) 
X = X[:100] 
y = y[:100] #创建张量数据集
tensor_x = torch.tensor(X, dtype=torch.float32)
tensor_y = torch.tensor(y, dtype=torch.float32)#超参数设置
learning_rate = 0.001
epochs = 500#模型参数
w = torch.randn(1, 4, requires_grad=True) 
b = torch.randn(1, requires_grad=True) for i in range(epochs):  #前向计算z = torch.nn.functional.linear(tensor_x, w, b) z = torch.sigmoid(z) #损失函数loss = torch.nn.functional.binary_cross_entropy(z.reshape(-1), tensor_y,reduction='mean')#计算梯度loss.backward() #参数更新with torch.no_grad(): w -= learning_rate * w.gradb -= learning_rate * b.grad#梯度清零                w.grad.zero_()b.grad.zero_()#训练动态损失print('train loss:' ,loss.item())
http://www.dtcms.com/wzjs/529239.html

相关文章:

  • 廊坊网站群发关键词seo排名优化软件
  • 企业级网站开发技术沈阳seo建站
  • 网站突然打不开谷歌推广代理商
  • 国贸做网站的公司企业培训网
  • 郑州做企业网站app推广怎么做
  • 网站模板排名餐饮管理培训课程
  • 广东省住房和城乡建设委员会网站广告推广免费发布
  • html中音乐网站怎么做郑州网站优化培训
  • 销售网站制作电话免费打广告平台有哪些
  • 建设棋牌类网站要多少钱谷歌推广新手教程
  • 找个做游戏的视频网站百度人工电话
  • wordpress搜索增强沈阳seo关键词
  • 专做校园购物网站佛山网络推广平台
  • 网站推广临沂网站首页排名
  • 做公益网站又什么要求郑州厉害的seo顾问公司
  • 上海莱布拉网站建设企业建站平台
  • 做煤的网站apppc网站建设和推广
  • 网站框架一般用什么做网络推广和网站推广
  • 系统网站建设需求分析企业网站源码
  • 雄安网站建设制作最有效的恶意点击
  • 网站项目分析怎么做 方法有哪些百度网址大全 旧版本
  • 网站建站行业公司主页建设高权重友情链接
  • 网站后台查询软件百度小说网
  • 购买网站网上推广用什么平台推广最好
  • 宁乡的网站建设学技术的培训学校
  • 动态网站建设网推广软文怎么写样板
  • 项目设计课题研究高中综合评价关键词排名优化方法
  • 微信公众账号申请注册提升seo排名平台
  • wordpress文章分割常州网站建设优化
  • 网站怎么做优化seo自然排名