当前位置: 首页 > wzjs >正文

镇江网友之家开封搜索引擎优化

镇江网友之家,开封搜索引擎优化,钢丝网片每平米价格,百度搜索显示网站logo笔者注 神经网络的前向传播(Forward Propagation)是指输入数据从输入层经过各隐藏层传递到输出层,逐层计算激活值的过程。这一过程不涉及参数更新,主要用于生成预测结果或为反向传播提供中间值。如果觉得理解起来过于抽象&#x…

笔者注

神经网络的前向传播(Forward Propagation)是指输入数据从输入层经过各隐藏层传递到输出层,逐层计算激活值的过程。这一过程不涉及参数更新,主要用于生成预测结果或为反向传播提供中间值。如果觉得理解起来过于抽象,就把这个过程作为为了得到结果所需要做的必要过程好了。

1. 神经网络结构基础

之前笔记介绍过

 神经网络由多层神经元组成,一般有3层结构:

- 输入层:接收原始数据。

- 隐藏层:1个或多个中间层,通过非线性变换提取特征。

- 输出层:生成最终预测结果。

- 神经元连接:每层神经元通过带权重的边与下一层神经元相连,权重决定输入信号的重要性。

2. 前向传播核心步骤

 假设神经网络有L层,第l层的输入为a^{(l-1)},输出为a^{(l)}。每一层的计算分为两步:

步骤1:线性变换(Linear Transformation)

 - 公式:z^{(l)} = W^{(l)} \cdot a^{(l-1)} + b^{(l)}

- W^{(l)}:第l层的权重矩阵(维度为 n^{(l)} \times n^{(l-1)})。

- b^{(l)}:第l层的偏置向量(维度为 n^{(l)} \times 1)。

- a^{(l-1)}:第l-1层的激活值(输入)。

- z^{(l)}:第l层的线性组合结果(未激活值)。

步骤2:非线性激活(Non-linear Activation)

 - 公式:a^{(l)} = \sigma(z^{(l)})

- \sigma(\cdot):激活函数(如ReLU、sigmoid、tanh等)。

- 作用:引入非线性,使神经网络能学习复杂模式。

3. 逐层计算示例

 以一个简单的3层网络(输入层→隐藏层→输出层)为例:

1. 输入层到隐藏层:

- 输入数据 a^{(0)} = X(假设X为样本矩阵,维度为n^{(0)} \times m,m为样本数)。

- 计算 z^{(1)} = W^{(1)} \cdot a^{(0)} + b^{(1)}

- 激活:a^{(1)} = \sigma(z^{(1)})

2. 隐藏层到输出层:

- 计算 z^{(2)} = W^{(2)} \cdot a^{(1)} + b^{(2)}

- 输出层激活(根据任务选择函数):

- 回归任务:线性激活a^{(2)} = z^{(2)}

- 分类任务:Softmax激活(输出概率分布)。

4. 激活函数的选择

 - 常见激活函数:

- Sigmoid:输出范围(0,1),适合二分类。

- ReLU:计算高效,缓解梯度消失(\sigma(z) = \max(0, z))。

- Softmax:输出层多分类常用,将值归一化为概率分布。

- 选择依据:根据任务类型(分类/回归)和网络深度(避免梯度问题)。

5. 矩阵运算的高效性

 - 向量化计算:通过矩阵乘法同时处理多个样本,避免循环。

- 示例:若有m个样本,每个样本的输入为 x_i,则 a^{(0)} = [x_1, x_2, ..., x_m],矩阵运算可批量计算所有样本的激活值。

6. 前向传播的作用

 - 预测阶段:输入新数据,逐层计算输出,得到预测结果。

- 训练阶段:为反向传播提供中间值(如各层的z和a),用于计算梯度并更新参数。

7.简单的算法示例代码

import numpy as np# 定义激活函数
def sigmoid(z):return 1 / (1 + np.exp(-z))# 前向传播函数
def forward_propagation(X, W1, b1, W2, b2):# 输入层到隐藏层的线性变换z1 = np.dot(W1, X) + b1# 隐藏层的激活函数a1 = sigmoid(z1)# 隐藏层到输出层的线性变换z2 = np.dot(W2, a1) + b2# 输出层的激活函数a2 = sigmoid(z2)return a2# 示例数据
# 输入特征,假设有3个样本,每个样本有2个特征
X = np.array([[0.1, 0.2], [0.3, 0.4], [0.5, 0.6]]).T
# 隐藏层神经元数量
n_hidden = 3
# 输入层神经元数量
n_input = X.shape[0]
# 输出层神经元数量
n_output = 1# 初始化权重和偏置
# 输入层到隐藏层的权重
W1 = np.random.randn(n_hidden, n_input)
# 隐藏层的偏置
b1 = np.zeros((n_hidden, 1))
# 隐藏层到输出层的权重
W2 = np.random.randn(n_output, n_hidden)
# 输出层的偏置
b2 = np.zeros((n_output, 1))# 执行前向传播
output = forward_propagation(X, W1, b1, W2, b2)
print("前向传播的输出结果:")
print(output)

8. 总结

 前向传播的核心是将输入数据通过层层线性变换和非线性激活,最终映射到输出空间。其数学本质是复合函数的嵌套计算,而矩阵运算的优化使得这一过程在大规模数据上高效运行。理解前向传播是掌握反向传播、梯度下降等神经网络核心算法的基础。

http://www.dtcms.com/wzjs/54672.html

相关文章:

  • 武汉设计工程学院是几本seo案例视频教程
  • 沧州市网站制作公司台州关键词优化服务
  • 重庆网站建设报价万网域名注册官网
  • ps企业网站模板免费下载seo关键词排名优化app
  • 做网站枣庄网站怎么优化关键词快速提升排名
  • 程序员培训机构课程google 推广优化
  • 电子商务网站建设评估工具搜索引擎优化要考虑哪些方面?
  • 长春商城网站开发seo深圳培训班
  • 深圳市城乡和建设局网站百度一下你就知道网页
  • 企业网站用什么技术做西安网站seo服务
  • 网站建设html5建网站需要什么条件
  • 广东长城建设集团有限公司 网站新闻稿发布软文平台
  • 手机怎么注册自己的网站热搜榜百度一下你就知道
  • 石家庄外贸做网站网站推广优化平台
  • 临清做网站企业培训课程设计
  • 网站建设难度大吗设计网站用什么软件
  • 专业网站建设公司兴田德润放心如何做网站推广广告
  • 武汉百度推广费用seo课程培训机构
  • 公司申请网站建设申请理由什么叫口碑营销
  • 网站查不到备案深圳网络公司推广平台
  • 昆明网站制作前十qq空间刷赞网站推广
  • 深圳酒店网站建设一个关键词要刷多久
  • 自动化设备技术支持东莞网站建设网络营销的内容主要有哪些
  • 莱芜网站开发代理网络营销自学网站
  • 做性用品网站需要多少钱西安seo关键字优化
  • php做的卖水果网站有哪些seo投放是什么意思
  • wordpress伪静态很慢做优化关键词
  • 做设计想接外单去哪个网站好日照seo优化
  • 想自己做网站流程百度投诉中心电话
  • 淮北网站建设制作站长统计app进入网址新版小猪