当前位置: 首页 > wzjs >正文

企业推广的主要目的是seo入门书籍推荐

企业推广的主要目的是,seo入门书籍推荐,个人备案网站名,网站更换空间改版收录文章目录 前言一个神经网络的例子激活函数登场3层神经网络的实现矩阵运算3层神经网络示意图符号定义第一层信号传递第二层信号传递第三层信号传递 代码实现实践:手写数字识别参考资料 前言 上一篇文章我们学习了感知机,因为它和神经网络有很多共同点&am…

文章目录

  • 前言
  • 一个神经网络的例子
  • 激活函数登场
  • 3层神经网络的实现
    • 矩阵运算
    • 3层神经网络示意图
    • 符号定义
    • 第一层信号传递
    • 第二层信号传递
    • 第三层信号传递
  • 代码实现
  • 实践:手写数字识别
  • 参考资料

前言

上一篇文章我们学习了感知机,因为它和神经网络有很多共同点,所以这一篇正式进入神经网络一定也会很顺畅。

一个神经网络的例子

通过下面的神经网络图形,我们学习几个基础的术语:

  • 输入层:最左边的一列,每个神经元代表一个输入特征,负责接收外部数据;
  • 隐藏层/中间层:中间的一列,负责数据的特征提取、模式识别和非线性变换,它是神经网络能学习复杂关系的关键部分;每个神经元都进行计算,并使用激活函数引入非线性;
  • 输出层:最后一列,复杂将隐藏层提取的特征转换为最终的预测结果;
  • 神经元层数:下图有3层;
  • 权重层数:下图有2层;
  • 网络层数:我们用权重层数来表示,因此是2层。在这里插入图片描述

激活函数登场

上面在介绍隐藏层的时候提到了激活函数,下图明确展示了激活函数的计算过程。首先输入通过权重和偏置计算得到 a = w 1 x 1 + w 2 x 2 + b a = w_1x_1+w_2x_2+b a=w1x1+w2x2+b h h h函数就是激活函数,将 a a a激活转换成 y y y,即 y = h ( x ) y=h(x) y=h(x)
在这里插入图片描述
激活函数的常见形式包括:
在这里插入图片描述
图像如下:
在这里插入图片描述
一般朴素感知机是指激活函数使用了阶跃函数的模型,而神经网络则是激活函数使用了sigmoid等平滑函数的多层网络。

3层神经网络的实现

矩阵运算

回忆一个矩阵计算的规则:矩阵A的第一维元素个数(列数)必须等于矩阵B的第0维元素的个数(行数)。

在这里插入图片描述
实现神经网络时,要特别注意x的维度和w的维度是否一致

在这里插入图片描述

3层神经网络示意图

在这里插入图片描述

符号定义

第一层信号传递

a 1 ( 1 ) a_{1}^{(1)} a1(1)的计算为例:
a 1 ( 1 ) = w 11 ( 1 ) x 1 + w 12 ( 1 ) x 2 + b 1 ( 1 ) a_{1}^{(1)}=w_{11}^{(1)}x_1+w_{12}^{(1)}x_2+b_{1}^{(1)}\\ a1(1)=w11(1)x1+w12(1)x2+b1(1)
在这里插入图片描述
用矩阵的运算符号可以将第一层的计算表示为:
A ( 1 ) = X W ( 1 ) + B ( 1 ) A^{(1)}=XW^{(1)}+B^{(1)} A(1)=XW(1)+B(1)
其中:
A ( 1 ) = ( a 1 ( 1 ) , a 2 ( 1 ) , a 3 ( 1 ) ) A^{(1)}=(a_{1}^{(1)}, a_{2}^{(1)}, a_{3}^{(1)}) A(1)=(a1(1),a2(1),a3(1))
X = ( x 1 , x 2 ) X=(x_1, x_2) X=(x1,x2)
W ( 1 ) = ( w 11 ( 1 ) w 21 ( 1 ) w 31 ( 1 ) w 12 ( 1 ) w 22 ( 1 ) w 32 ( 1 ) ) \mathbf{W}^{(1)} = \begin{pmatrix} w_{11}^{(1)} & w_{21}^{(1)} & w_{31}^{(1)} \\ w_{12}^{(1)} & w_{22}^{(1)} & w_{32}^{(1)} \end{pmatrix} \ W(1)=(w11(1)w12(1)w21(1)w22(1)w31(1)w32(1)) 

激活函数的计算示意图如下:
Z 1 = s i g m o i d ( A 1 ) Z_1 = sigmoid(A_1) Z1=sigmoid(A1)
在这里插入图片描述

第二层信号传递

在这里插入图片描述

第三层信号传递

在这里插入图片描述

代码实现

def sigmoid(x):"""计算输入 x 的 Sigmoid 值。:param x: 标量或 NumPy 数组:return: Sigmoid 变换后的值"""return 1 / (1 + np.exp(-x))def identify_function(x):"""恒等函数"""return xdef init_network():"""initialize weight and biases"""network = {}network['W1'] = np.array([[0.1, 0.3, 0.5],[0.2, 0.4, 0.6])network['b1'] = np.array([0.1, 0.2, 0.3])network['W2'] = np.array([[0.1, 0.4],[0.2, 0.5],[0.3, 0.6])network['b2'] = np.array([0.1, 0.2])network['W3'] = np.array([[0.1, 0.3],[0.2, 0.4])network['b3'] = np.array([0.1, 0.2])returndef forward():"""transfer input to output"""W1, W2, W3 = network['W1'], network['W2'], network['W3']b1, b2, b3 = network['b1'], network['b2'], network['b3']a1 = np.dot(x, W1) + b1z1 = sigmoid(a1)a1 = np.dot(z1, W2) + b2z2 = sigmoid(a2)a3 = np.dot(z2, W3) + b3y = identify_function(a3)return y

实践:手写数字识别

上面我们代码里的forward函数也称为神经网络的推理过程或前向传播。完整的机器学习过程分为学习过程和推理过程两部分,神经网络也是如此。接下来我们假设使用数据学习权重和偏置的过程已经结束,现在只需根据学习到的参数,进行推理。

import sys, os
sys.path.append(os.pardir) # 为了导入父目录中的文件而进行的设定
from dataset.mnist import load_mnistdef get_data():(x_train, t_train), (x_test, t_test) = \load_mnist(normalize=True, flatten=True, one_hot_label=False) # normalize将输入归一到0~1之间的数值return x_test, t_testdef init_network():with open("sample_weight.pkl", 'rb') as f:network = pickle.load(f)return networkdef predict(network, x):W1, W2, W3 = network['W1'], network['W2'], network['W3']b1, b2, b3 = network['b1'], network['b2'], network['b3']a1 = np.dot(x, W1) + b1z1 = sigmoid(a1)a2 = np.dot(z1, W2) + b2z2 = sigmoid(a2)a3 = np.dot(z2, W3) + b3y = softmax(a3)return yx, t = get_data()
network = init_network()accuracy_cnt = 0
for i in range(len(x)):y = predict(network, x[i])p = np.argmax(y) # 获取概率最高的元素的索引if p == t[i]:accuracy_cnt += 1print("Accuracy:" + str(float(accuracy_cnt) / len(x)))

通过上面的代码学习几个术语:

  • 正规化:将数据限定到某个范围内的处理;
  • 预处理:对神经网络的输入进行某种特定的转换;
  • 数据白化:将数据整体的分布形状均匀化;
  • 批处理:

上例中,拿到一张图片进行推理时,输入层是784(图像大小28*28)个神经元,输出层是10(数字0-9共10个类别)个神经元,数组形状变化如下:
在这里插入图片描述

设想如果我们想一次推理100张图片呢?数组形状变化就会变成下图所示:
在这里插入图片描述
这种打包式的输入称为“”。批处理一次性计算大型数组要比分开逐步计算各个小型数组速度更快。批处理的代码如下:

x, t = get_data()
network = init_network()batch_size = 100 # 批数量
accuracy_cnt = 0for i in range(0, len(x), batch_size):x_batch = x[i:i+batch_size]y_batch = predict(network, x_batch)p = np.argmax(y_batch, axis=1)accuracy_cnt += np.sum(p == t[i:i+batch_size])

参考资料

[1] 斋藤康毅. (2018). 深度学习入门:基于Python的理论与实践. 人民邮电出版社.

http://www.dtcms.com/wzjs/24104.html

相关文章:

  • 新网站建设方案ppt竞价排名软件
  • 浙江网站备案最近的新闻大事
  • 中信建设有限责任公司招聘2021福州搜索引擎优化公司
  • 云南网站设计模板网络宣传平台有哪些
  • wordpress 电商 插件下载seo公司推广宣传
  • 漳州网站制作深圳seo外包
  • 网站的表格参数怎么做建设优化网站
  • 用CMS做网站的好处网站推广优化的方法
  • 极速建站 哪家好济南头条新闻热点
  • 如何做外贸网站网络营销和网络推广有什么区别
  • 百度云视频 wordpress短视频seo代理
  • 外贸营销型网站制作搜狗网址
  • behance官网入口杭州网站seo优化
  • 广东经营性网站备案上海网站制作公司
  • 上海黄浦网站建设大数据免费查询平台
  • 网站建设 工作方案重庆seo网站建设
  • 一个软件是怎么做出来的网站优化名词解释
  • 网站建设注意哪些内容江小白网络营销案例
  • 车辆租赁的网站建设企业网站推广模式
  • 泉做网站的公司朝阳区seo搜索引擎优化介绍
  • 网站优化该怎么做软文写作技巧
  • 个人做跨境电商的平台网站app拉新推广平台代理
  • 武汉企业管理培训课程济南网络优化网址
  • 网站推广新手教程百度浏览器网址是多少
  • 日本人真人做真爱免费的网站深圳seo推广
  • 买产品做企业网站还是博客新站整站优化
  • 网站建设运营费用预算重庆快速排名优化
  • 商城网站开发项目分工怎么在百度上做公司网页
  • 安平网站建设培训成都网站seo公司
  • 企业网站推广的好处收录优美图片找不到了