当前位置: 首页 > wzjs >正文

合肥建立网站百度链接提交

合肥建立网站,百度链接提交,遵义做网站,wordpress 缩略图添加文章目录多分类one_hot编码编码原理交叉熵损失函数示例实战案例基于mnnist的手写识别TensorBoard的使用部分代码解释多分类 输出是每个类别的概率,要求有多少个分类最终的输出层就有多少个神经元各分类输出概率的总和是1(使用softmax归一化)…

在这里插入图片描述

文章目录

    • 多分类
    • one_hot编码
      • 编码原理
    • 交叉熵损失函数
      • 示例
    • 实战案例基于mnnist的手写识别
      • TensorBoard的使用
      • 部分代码解释

多分类

  • 输出是每个类别的概率,要求有多少个分类最终的输出层就有多少个神经元
  • 各分类输出概率的总和是1(使用softmax归一化)
    在这里插入图片描述

one_hot编码

One-Hot 编码是机器学习中处理​​分类数据​​的核心技术,它将离散类别转换为向量表示,使其能被神经网络处理。

一句话:在一个样本中:n个分类,结果是第k个,则yone-hot=[0,⋯,1⏟第k位,⋯,0]y_{\text{one-hot}} = [0, \cdots, \underbrace{1}_{\text{第k位}}, \cdots, 0]yone-hot=[0,,k1,,0]

编码原理

对于一个包含 C 个类别的特征:

  • 创建长度为 C 的零向量
  • 对第 k 类数据,将其向量中第 k 个位置设为 1
  • 其余位置保持为 0

yone-hot=[0,⋯,1⏟第k位,⋯,0]y_{\text{one-hot}} = [0, \cdots, \underbrace{1}_{\text{第k位}}, \cdots, 0]yone-hot=[0,,k1,,0]

假设动物分类的类别为:[“狗”, “猫”, “鸟”]
类别 One-Hot 编码
狗 [1, 0, 0]
猫 [0, 1, 0]
鸟 [0, 0, 1]

交叉熵损失函数

一句话:在H(y,pi)=−∑xylog⁡piH(y,p_i)=-\sum_{x}y\log p_iH(y,pi)=xylogpi中,只有一条1*log(pi)为最终交叉熵损失函数值,其它都是0*log(pi)=0

交叉熵损失函数与逻辑回归中的损失函数效果相同,都是为如何调整参数指明方向,即通过求取梯度,调整参数使损失函数的值逼近0,只是交叉熵损失函数用在多分类中
L(y^,y)=−ylog⁡(y^)−(1−y)log⁡(1−y^)L(\hat{y}, y) = - y \log(\hat{y}) - (1 - y) \log(1 - \hat{y}) L(y^,y)=ylog(y^)(1y)log(1y^)

交叉熵损失函数
H(y,pi)=−∑xylog⁡piH(y,p_i)=-\sum_{x}y\log p_iH(y,pi)=xylogpi

yi:是真实标签(真实分布),通常采用one−hot编码(真实类别为1,其余为0)y_i:是真实标签(真实分布),通常采用one-hot编码(真实类别为1,其余为0)yi:是真实标签(真实分布),通常采用onehot编码(真实类别为1,其余为0
(乘的时候按类,分开乘了,0*log or 1*log ,单个样本,最终结果取决于那个唯一的1*log的值)

pi:是预测概率(模型输出的概率分布)p_i:是预测概率(模型输出的概率分布)pi:是预测概率(模型输出的概率分布)

log⁡(pi):是预测概率的对数值\log(p_i):是预测概率的对数值log(pi):是预测概率的对数值

整体计算:是真实标签yi与预测概率对数log⁡(pi)的乘积再求和取负整体计算:是真实标签y_i与预测概率对数\log(p_i)的乘积再求和取负整体计算:是真实标签yi与预测概率对数log(pi)的乘积再求和取负

示例

在这里插入图片描述

  • L=0.357 表示当前预测不够准确(理想值应接近0)
  • Log的底数无所谓,经过训练,任何底数的结果都是相同的

log(x)
在这里插入图片描述

实战案例基于mnnist的手写识别

TensorBoard的使用

from torch.utils.tensorboard import SummaryWriter
writer = SummaryWriter(comment='test_tensorboard')  # 用于记录要可视化的数据
#writer = SummaryWriter(存放的地址)

如果不指定绝对路径,PyTorch 默认创建runs在当前文件夹下
在这里插入图片描述

在你安装TensorBoard的虚拟py环境中运行以下代码即可

tensorboard --logdir="这个event文件所在目录的绝对地址"

在这里插入图片描述
在这里插入图片描述

部分代码解释

import torch
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter
from torchvision import transforms
from torchvision.datasets import MNIST
import matplotlib.pyplot as plt
import os
import numpy as np
from datetime import datetime
import os
log_dir = "runs"
os.makedirs(log_dir, exist_ok=True)

创建一个名为runs的文件夹

import matplotlib.pyplot as plt
writer = SummaryWriter(log_dir=log_subdir)

记录数据便于后续画图

3.定义网络基本框架

class SoftmaxRegression(torch.nn.Module):#括号中的 torch.nn.Module 表示你的 SoftmaxRegression 类 继承自 PyTorch 的 Module 基类def __init__(self):  #self 指代 当前类的实例对象(即正在创建的具体模型)super().__init__()# 单层网络结构:784输入 -> 10输出self.linear = torch.nn.Linear(28 * 28, 10)#定义了这个网络的基本结构,有784个输入特征,10个输出def forward(self, x):# 应用log_softmax到线性层输出return torch.nn.functional.log_softmax(self.linear(x), dim=1)

log_softmax(self.linear(x), dim=1)相当于两步
softmax_output = exp(z_i) / sum(exp(z_j)) # 转换为概率分布
log_softmax = log(softmax_output) # 取自然对数

torch.nn.functional.log_softmax(self.linear(x), dim=1),dim=1
im=0:跨样本操作(通常不需要)(每个样本的第n类概率加起来为1)
dim=1:跨类别操作(分类任务的标准做法)(每个样本的n个类的各个概率加起来为1)

在这个模型中没有隐藏层,这是一个单层神经网络(也称为 Softmax 回归或多元逻辑回归),是直接从784个输出特征到,输出层的十个输出神经元

线性变换-神经元a0
线性变换-神经元a1
1......1
线性变换-神经元a9
输入的784个特征x
激活函数log_softmax(z)

4.加载训练数据

def get_data_loader(is_train, batch_size=128):transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.1307,), (0.3081,))  # MNIST的均值和标准差])dataset = MNIST(root='./data', train=is_train, download=True, transform=transform)return DataLoader(dataset, batch_size=batch_size, shuffle=is_train, pin_memory=True)

文章转载自:

http://jDszXlYl.cyysq.cn
http://m6lLaQ4X.cyysq.cn
http://k9sUQW8R.cyysq.cn
http://y8l2o6PS.cyysq.cn
http://hw4EGPaP.cyysq.cn
http://Sg5ulDYn.cyysq.cn
http://TPOj1Uai.cyysq.cn
http://TqXBrIHe.cyysq.cn
http://jJ5C3bz7.cyysq.cn
http://YLmS5s9K.cyysq.cn
http://GQu7F8G2.cyysq.cn
http://tmT327t1.cyysq.cn
http://2KI1SknZ.cyysq.cn
http://X01YalKJ.cyysq.cn
http://bjcvtfBJ.cyysq.cn
http://fpwZXj6Q.cyysq.cn
http://HxENLef2.cyysq.cn
http://yRzYKMP2.cyysq.cn
http://irBsJ1TA.cyysq.cn
http://XDkfe675.cyysq.cn
http://Wu8FA3I7.cyysq.cn
http://rwWGC0Ll.cyysq.cn
http://LYSZbZ7d.cyysq.cn
http://dWT6ZmKg.cyysq.cn
http://h0ENRTvS.cyysq.cn
http://vNe4AU8j.cyysq.cn
http://74I1mHqK.cyysq.cn
http://dSJgpunM.cyysq.cn
http://IabXWBZn.cyysq.cn
http://iwkv3NFM.cyysq.cn
http://www.dtcms.com/wzjs/705091.html

相关文章:

  • 上海网站建设的公司适合年轻人看的播放器
  • 可信网站验证服务中心可以做免费的网站吗
  • 外贸企业官网建站企业管理咨询合同书范本
  • 玉环建设规划局网站化妆品的网站建设
  • 网站流量 名词做网站实现图片自动压缩
  • 网站域名能迁移吗中国电商建站程序
  • 西安有没有网站建设和营销的培训wordpress定制菜单
  • 代加工厂找订单的网站网站空间2G一年多少钱
  • 网站页面设计的重要性网站管理后台地址怎么查询
  • 最权威的做网站设计公司价格Wordpress架构图
  • 上海招聘网站排名宝安附近做网站公司
  • 合肥建设工程招聘信息网站学会了dw就可以做网站吗
  • 网站建设服务费属于公司网站费用计入什么科目
  • 四川手机网站建设费用wordpress秒开优化
  • 网站改版对seo影响全网vip视频网站建设
  • 网站视频主持人wordpress进不去后台
  • 安阳网站建设公司出租车公司去掉wordpress
  • 网站建设 天津辽宁省城乡建设厅网站
  • 做文案策划需要看什么网站wordpress 苏醒主题
  • 平顶山建设公司网站怎么看网站的建站公司是哪个
  • 大凤号 网站建设wordpress设计导航
  • 深圳做网站得外包公司有哪些软件设计方案怎么写
  • 简单旅游网站模板下载什么插件可以做网站访问量统计
  • 中小企业网站功能模块及数据库表wordpress如何做导航网站
  • 网站建设界面建议中国建设银行网站保定五四路
  • 手机好看网站模板免费下载东莞住房建设网站的网
  • 运城建设银行网站莱芜都市网最新招聘信息
  • 南阳网站排名优化报价网络科技公司名称大全简单大气
  • 如何制作一个注册网站长沙网络营销公司哪家好
  • 你好南京网站网站建设公司-山而