当前位置: 首页 > news >正文

08_多层感知机

1. 单层感知机

1.1 感知机

在这里插入图片描述
在这里插入图片描述

① 线性回归输出的是一个实数,感知机输出的是一个离散的类。

在这里插入图片描述

1.2 训练感知机

① 如果分类正确的话y<w,x>为正数,负号后变为一个负数,max后输出为0,则梯度不进行更新。

② 如果分类错了,y<w,x>为负数,下图中的if判断就成立了,就有梯度进行更新。

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

1.3 收敛半径

在这里插入图片描述

1.4 XOR问题

在这里插入图片描述

1.5 总结

在这里插入图片描述

2. 多层感知机

在这里插入图片描述

2.1 学习XOR

① 先用蓝色的线分,再用黄色的线分。

② 再对蓝色的线和黄色的线分出来的结果做乘法。

在这里插入图片描述

2.2 单隐藏层

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

① 不用激活函数的话,所以全连接层连接在一起依旧可以用一个最简单的线性函数来表示。

在这里插入图片描述

2.3 Sigmoid 函数

在这里插入图片描述

2.4 Tanh函数

在这里插入图片描述

2.5 ReLU

① ReLU的好处在于不需要执行指数运算。

② 在CPU上一次指数运算相当于上百次乘法运算。

在这里插入图片描述

2.6 多类分类

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

2.7 总结

在这里插入图片描述

1. 多层感知机(使用自定义)

import torch
from torch import nn
from d2l import torch as d2lbatch_size = 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)# 实现一个具有单隐藏层的多层感知机,它包含256个隐藏单元
num_inputs, num_outputs, num_hiddens = 784, 10, 256 # 输入、输出是数据决定的,256是调参自己决定的
W1 = nn.Parameter(torch.randn(num_inputs, num_hiddens, requires_grad=True))
b1 = nn.Parameter(torch.zeros(num_hiddens, requires_grad=True))
W2 = nn.Parameter(torch.randn(num_hiddens, num_outputs, requires_grad=True))
b2 = nn.Parameter(torch.zeros(num_outputs, requires_grad=True))
params = [W1,b1,W2,b2]# 实现 ReLu 激活函数
def relu(X):a = torch.zeros_like(X) # 数据类型、形状都一样,但是值全为 0return torch.max(X,a)# 实现模型
def net(X):#print("X.shape:",X.shape)X = X.reshape((-1, num_inputs)) # -1为自适应的批量大小#print("X.shape:",X.shape)H = relu(X @ W1 + b1)#print("H.shape:",H.shape)#print("W2.shape:",W2.shape)return (H @ W2 + b2)# 损失
loss = nn.CrossEntropyLoss() # 交叉熵损失# 多层感知机的训练过程与softmax回归的训练过程完全一样
num_epochs ,lr = 30, 0.1
updater = torch.optim.SGD(params, lr=lr)
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, updater)

在这里插入图片描述

2. 多层感知机(使用框架)

① 调用高级API更简洁地实现多层感知机。

import torch
from torch import nn
from d2l import torch as d2l# 隐藏层包含256个隐藏单元,并使用了ReLU激活函数
net = nn.Sequential(nn.Flatten(),nn.Linear(784,256),nn.ReLU(),nn.Linear(256,10))def init_weights(m):if type(m) == nn.Linear:nn.init.normal_(m.weight,std=0,)net.apply(init_weights)# 训练过程
batch_size, lr, num_epochs = 256, 0.1, 10
loss = nn.CrossEntropyLoss()
trainer = torch.optim.SGD(net.parameters(), lr=lr)train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, trainer)

在这里插入图片描述

# 单层感知机函数
%matplotlib inline
import torch
from torch import nn
from d2l import torch as d2l# 数据集
batch_size = 256
train_iter,test_iter = d2l.load_data_fashion_mnist(batch_size)# 初始化模型参数
num_inputs = 784
num_outputs = 10
num_hiddens = 256W1 = nn.Parameter(torch.randn(num_inputs, num_hiddens, requires_grad=True) * 0.01)
b1 = nn.Parameter(torch.zeros(num_hiddens, requires_grad=True))params = [W1, b1]def relu(X):a = torch.zeros_like(X)return torch.max(X, a)# 定义网络
def net(X):X = X.reshape((-1, num_inputs))H = relu(X @ W1 + b1)return H# loss = nn.CrossEntropyLoss(reduction='none')
loss = nn.CrossEntropyLoss()num_epochs, lr = 10, 0.1
# updater = torch.optim.SGD(params, lr=lr)
updater = torch.optim.Adam(params, lr=lr)
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, updater)
# 3层感知机函数
%matplotlib inline
import torch
from torch import nn
from d2l import torch as d2l# 数据集
batch_size = 256
train_iter,test_iter = d2l.load_data_fashion_mnist(batch_size)# 初始化模型参数
num_inputs = 784
num_outputs = 10
num_hiddens1 = 256
num_hiddens2 = 128W1 = nn.Parameter(torch.randn(num_inputs, num_hiddens1, requires_grad=True) * 0.01)
b1 = nn.Parameter(torch.zeros(num_hiddens, requires_grad=True))
W2 = nn.Parameter(torch.randn(num_hiddens1, num_hiddens2, requires_grad=True) * 0.01)
b2 = nn.Parameter(torch.zeros(num_hiddens2, requires_grad=True))
W3 = nn.Parameter(torch.randn(num_hiddens2, num_outputs, requires_grad=True) * 0.01)
b3 = nn.Parameter(torch.zeros(num_outputs, requires_grad=True))params = [W1, b1,W2,b2,W3,b3]def relu(X):a = torch.zeros_like(X)return torch.max(X, a)# 定义网络
def net(X):X = X.reshape((-1, num_inputs))H1 = relu(X @ W1 + b1)H2 = relu(H1 @ W2 + b2)return (H2 @ W3 + b3)# loss = nn.CrossEntropyLoss(reduction='none')
loss = nn.CrossEntropyLoss()
# 三层 学习率修改为0.01 效果会好一些
num_epochs, lr = 10, 0.01
# updater = torch.optim.SGD(params, lr=lr)
updater = torch.optim.Adam(params, lr=lr)
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, updater)

在这里插入图片描述

d2l.predict_ch3(net, test_iter)

在这里插入图片描述

感知机(Perceptron)简介

感知机(Perceptron)是最简单的神经网络模型之一,最早由 Frank Rosenblatt 在 1958 年提出。它是一个二分类模型,能够根据输入的特征,判断一个样本属于哪一类。尽管感知机本身非常简单,但它为后来的深度学习模型奠定了基础,尤其是多层感知机(MLP)和其他神经网络。

感知机是 线性分类器,意味着它只能对线性可分的任务进行有效的分类。对于无法用直线(或超平面)划分的任务,单层感知机是无法处理的,但通过将其扩展到多层神经网络,问题得到了很好的解决。

感知机的结构

感知机由以下几个部分组成:

  1. 输入层:感知机接受一个输入向量 x=[x1,x2,...,xn]\mathbf{x} = [x_1, x_2, ..., x_n]x=[x1,x2,...,xn],表示样本的特征。
  2. 权重(Weights):每个输入特征 xix_ixi 都有一个对应的权重 wiw_iwi
  3. 偏置项(Bias):为了使模型更具有表达能力,感知机还有一个偏置项 bbb
  4. 激活函数:感知机通常使用一个阶跃函数(step function)作为激活函数,根据加权和与阈值的比较来决定输出。
感知机的数学表示

感知机的输出 yyy 是通过以下步骤计算的:

  1. 加权和

    z=∑i=1nwixi+b z = \sum_{i=1}^{n} w_i x_i + b z=i=1nwixi+b

    其中,xix_ixi 是输入特征,wiw_iwi 是与 xix_ixi 对应的权重,bbb 是偏置项。

  2. 激活函数(阶跃函数):

    y={1if z≥00if z<0 y = \begin{cases} 1 & \text{if } z \geq 0 \\ 0 & \text{if } z < 0 \end{cases} y={10if z0if z<0

    这里,阶跃函数(step function)会将加权和 zzz 映射为一个二值输出 yyy

感知机的推理过程

推理过程是指给定输入特征,感知机如何输出分类结果。其推理过程可以通过以下几个步骤来描述:

  1. 输入:将样本的特征 x=[x1,x2,...,xn]\mathbf{x} = [x_1, x_2, ..., x_n]x=[x1,x2,...,xn] 输入到感知机中。

  2. 加权和计算:感知机首先计算输入特征和权重的加权和(即 z=∑i=1nwixi+bz = \sum_{i=1}^{n} w_i x_i + bz=i=1nwixi+b)。

  3. 激活函数应用:然后,感知机将加权和 zzz 传递给阶跃激活函数,决定输出是 1 还是 0。

    • 如果 z≥0z \geq 0z0,则输出 1,表示样本属于一类。
    • 如果 z<0z < 0z<0,则输出 0,表示样本属于另一类。
  4. 输出:感知机的最终输出 yyy 是二值化的分类结果(0 或 1)。

感知机的推理示例

假设我们有以下输入特征 x=[x1,x2]\mathbf{x} = [x_1, x_2]x=[x1,x2],并且给定权重 w=[w1,w2]\mathbf{w} = [w_1, w_2]w=[w1,w2] 和偏置 bbb,感知机的输出通过以下步骤计算:

  1. 输入向量:x=[x1,x2]=[1.0,2.0]\mathbf{x} = [x_1, x_2] = [1.0, 2.0]x=[x1,x2]=[1.0,2.0]
  2. 权重:w=[w1,w2]=[0.5,0.5]\mathbf{w} = [w_1, w_2] = [0.5, 0.5]w=[w1,w2]=[0.5,0.5]
  3. 偏置项:b=−1.0b = -1.0b=1.0

首先,计算加权和 zzz

z=w1⋅x1+w2⋅x2+b=0.5⋅1.0+0.5⋅2.0−1.0=0.5+1.0−1.0=0.5 z = w_1 \cdot x_1 + w_2 \cdot x_2 + b = 0.5 \cdot 1.0 + 0.5 \cdot 2.0 - 1.0 = 0.5 + 1.0 - 1.0 = 0.5 z=w1x1+w2x2+b=0.51.0+0.52.01.0=0.5+1.01.0=0.5

然后,使用阶跃激活函数对 zzz 进行处理:

y={1if z≥00if z<0 y = \begin{cases} 1 & \text{if } z \geq 0 \\ 0 & \text{if } z < 0 \end{cases} y={10if z0if z<0

由于 z=0.5≥0z = 0.5 \geq 0z=0.50,所以 y=1y = 1y=1

感知机的训练过程

感知机的训练过程采用 感知机算法,该算法通过调整权重和偏置,使感知机的输出尽量接近实际目标。

  1. 初始化权重和偏置:权重和偏置通常被初始化为小的随机值。

  2. 预测输出:对于每个训练样本,计算感知机的预测输出。

  3. 计算误差:根据实际标签和预测输出之间的差异计算误差:

    误差=ytrue−ypredicted \text{误差} = y_{\text{true}} - y_{\text{predicted}} 误差=ytrueypredicted

  4. 权重更新:使用感知机学习规则来调整权重和偏置。如果预测错误,权重会根据误差进行调整。更新公式如下:

    wi=wi+η⋅误差⋅xi w_i = w_i + \eta \cdot \text{误差} \cdot x_i wi=wi+η误差xi

    b=b+η⋅误差 b = b + \eta \cdot \text{误差} b=b+η误差

    其中 η\etaη 是学习率,控制更新的步长。

  5. 重复:通过迭代多个训练样本,直到误差为零或达到最大迭代次数。

感知机的局限性

感知机有以下几个限制:

  1. 线性可分性:感知机只能解决线性可分的问题。如果数据集是非线性可分的,感知机就无法准确分类。例如,无法分类像 XOR 问题那样的非线性数据。

  2. 单层感知机:单层感知机是一个线性分类器,如果要处理更复杂的问题,我们需要将感知机扩展为多层感知机(MLP),即深度神经网络。

总结

  • 感知机 是一种简单的二分类模型,基于加权和和阶跃激活函数进行推理。
  • 推理过程:通过计算输入特征的加权和,然后使用阶跃函数决定输出类别(0 或 1)。
  • 训练过程:通过感知机算法迭代调整权重和偏置,使得模型能够正确分类训练数据。
  • 局限性:感知机只能处理线性可分问题,无法解决复杂的非线性问题。

感知机的工作原理为后续的深度学习模型,如多层感知机(MLP)和卷积神经网络(CNN),提供了基本的启示。


文章转载自:

http://T4S2KWuF.nmywm.cn
http://IvMtyJNB.nmywm.cn
http://UkW7TKDJ.nmywm.cn
http://qldDCsRV.nmywm.cn
http://hJQQK8L2.nmywm.cn
http://ogTqKn2s.nmywm.cn
http://96mnpUsV.nmywm.cn
http://nGxeH0yq.nmywm.cn
http://zf0YnUUb.nmywm.cn
http://QJ1aMAgT.nmywm.cn
http://vTidCtvp.nmywm.cn
http://MhUsdhDg.nmywm.cn
http://POfX4qbU.nmywm.cn
http://Cqle4F8e.nmywm.cn
http://279rVqFC.nmywm.cn
http://cBiX7zWr.nmywm.cn
http://bqPQ1EBf.nmywm.cn
http://ZS7bPyCN.nmywm.cn
http://ErOe7iOm.nmywm.cn
http://GyHbfa2S.nmywm.cn
http://Ss72r4YD.nmywm.cn
http://KWwJMqKA.nmywm.cn
http://8sRc84rc.nmywm.cn
http://iImqMzIT.nmywm.cn
http://LrSFZxeB.nmywm.cn
http://1A1nx76C.nmywm.cn
http://skG4Wqzh.nmywm.cn
http://6jEO1eMN.nmywm.cn
http://jDlQ17JO.nmywm.cn
http://z0g2J6uJ.nmywm.cn
http://www.dtcms.com/a/381407.html

相关文章:

  • mysql基础——库与表的操作
  • Kafka系列之:Kafka broker does not support the ‘MetadataRequest_v0‘ Kafka protocol.
  • 06-Redis 基础配置与多数据库:从端口修改到数据隔离
  • Android真机-安装Reqable证书-抓SSL包
  • 贪心算法应用:决策树(ID3/C4.5)详解
  • 创建数据库索引时,要考虑一下这5个维度
  • 如何用 Rust 重写 SQLite 数据库?
  • Eureka挂了对整个服务的影响
  • 简单设计-小红书封面制作工具,小红书图文生成器
  • ​​Docker 容器化部署核心实战:从镜像仓库管理、容器多参数运行到 Nginx 服务配置与正反向代理原理解析​
  • 【目标检测】metrice_curve和loss_curve对比图可视化
  • 文件上传漏洞知识+21关文件上传漏洞教程
  • AS32S601在轨重构(OTA)方案的优化与分析
  • 《Unity项目实战:动态加载引发的显存危机全链路排查与重构实践》
  • 【办公类-109-04】20250913圆牌卡片(接送卡被子卡床卡入园卡_word编辑单面)
  • 档案管理系统
  • 《C++进阶之STL》【哈希表】
  • 阿里云百炼平台使用避坑记录
  • 权限管理混乱如何影响知识获取
  • Linux 开发工具(1)
  • 多级缓存架构实战手册:Caffeine+Redis 从设计到落地的全链路解决方案
  • springboot 二手物品交易系统设计与实现
  • 【秋招笔试】2025.09.13滴滴秋招第一套笔试真题
  • leetcode151:反转字符串中的单词(正则化预处理与双指针原地解法)
  • 解锁 Ray 在 Kubernetes 上的弹性伸缩:打造高效、稳定的分布式作业
  • leetcode33(最小栈)
  • 二进制部署k8s
  • 为什么知识复用时缺乏场景化指导影响实用性
  • 基于Matlab可见光通信系统中OOK调制的误码率性能建模与分析
  • 《Linux线程——从概念到实践》