当前位置: 首页 > wzjs >正文

网站调用网页怎么做电商网站对比表格

网站调用网页怎么做,电商网站对比表格,朗姿青春日记 网站谁做的,要做未来科技的网站怎么做今天我们继续学习各个激活函数层的实现过程。 目录 5.2 Sigmoid层 六、Affine/Softmax层实现 6.1 Affine层 6.2 批处理版本 5.2 Sigmoid层 sigmoid函数的表达式如下: 用计算图表示的话如下: 计算过程稍微有些复杂,且这里除了乘法和加法…

今天我们继续学习各个激活函数层的实现过程。

目录

5.2 Sigmoid层

六、Affine/Softmax层实现

6.1 Affine层

6.2  批处理版本


5.2 Sigmoid层

sigmoid函数的表达式如下:

y=\frac{1}{1+exp(-x)}

用计算图表示的话如下:

计算过程稍微有些复杂,且这里除了乘法和加法还出现了新的运算符号 exp以及除法“/”,exp节点会进行y=exp(x)的计算,“/”节点会进行y=\frac{1}{x}的计算。

下面我们按照流程求出计算图的反向传播。

1、节点/:表示的是y=\frac{1}{x},则导数可以用高等数学的方法求解得到为:\frac{\partial y}{\partial x}=-\frac{1}{x^{2}}=-y^{2},那么我们就知道了,在反向传播的时候,上游的值乘以-y2(正向传播的输出平方后取相反数)传给下游。则,除法的反向传播结果为:

2、节点+:这个之前已经讨论过,直接将上游导数原封不动传给下游,不再赘述:

3、节点exp:表示的是y=e^{x},其解析式的导数与原式相同,故将上游导数乘以e^{x}(正向传播时的输出)传至下游。在我们这个例子中是e^{-x}

4、节点×:这里我们之前也讨论过,将上游的导数乘以输入值的翻转值后传至下游即可:

这样我们就得到了最终的反向传播计算图。

最后得到的这个结果中我们只用到了正向传播中的输入x和输出y,故我们可以在反向传播时简化中间的过程,直接得到最后的结果:

简化后的计算图省去了sigmoid函数计算过程中的繁杂步骤,只保留了输入和输出。另外,我们还可以对反向传播结果的值进一步简化:

\frac{\partial L}{\partial y}y^{2}exp(-x)=\frac{\partial L}{\partial y}\frac{1}{(1+exp(-x))^{2}}exp(-x)=\frac{\partial L}{\partial y}\frac{1}{1+exp(-x)}\frac{exp(-x)}{1+exp(-x)}=\frac{\partial L}{\partial y}y(1-y)

在上述公式的基础上,我们就可以用python实现sigmoid函数类:

Class sigmoid:def __init__(sekf):self.out = None # 因为反向传播需要用到输出y 所以这里记录输出值def forward(self,x):out = 1 / (1+np.exp(-x))return outdef backward(self,dout):dx = dout * self.out * (1.0 - self.out)return dx

可以看到,sigmoid函数在初始化时保存了输出值y,是因为反向传播时会用到这个输出y。

六、Affine/Softmax层实现

6.1 Affine层

神经网络的正向传播在计算加权信号的总和时,会使用到矩阵乘积,也就是Numpy中的dot点积函数,例如下面的代码片:

X = np.random.rand(2) # 输入
W = np.random.rand(2,3) #权重
B = np.random.rand(3) #偏置项X.shape #(2,)
W.shape #(2,3)
B.shape #(3,)Y = np.dot(X,W) + B

这里XWB形状分别是(2,)、(2,3)、(3,)的多维数组。这样加权计算就可以用最后一行的表达式实现,Y再经过激活函数的转换后将结果传递给下一层,这就是神经网络的正向传播。矩阵的乘积必须保证对应维度一致如下面的例子:

神经网络的正向传播中进行的矩阵的乘积运算在几何学领域被称为“仿射变换”。因此,这里将进行仿射变换的处理实现为“Affine层”.(仿射变换包括一次线性变换和一次平移,分别对应神经网络的加权和运算与加偏置运算)

下面我们看一个比较简单的Affine层计算图:

这里实现的就是上面我们代码所展示的过程,这里都是矩阵乘积和加减,之前我们学习的计算图中的各个节点都是标量,这里传播的节点都是矩阵。相当于从一维提升至二维。

现在我们考虑一下这个计算图的反向传播,步骤其实和标量的计算图一致。

首先加号,反向传播导数值不变,所以Y、X*W和B的导数值均为\frac{\partial L}{\partial Y},L为最终输出值。

其次是点积,其实和标量中的乘法相同,所以X和W的导数值是上游导数值与反转后的输入值相乘的结果。最终得到这样的结果:

\frac{\partial L}{\partial X}=\frac{\partial L}{\partial Y}*W^{T}

\frac{\partial L}{\partial W}=X^{T}*\frac{\partial L}{\partial Y}

这里由于是矩阵乘法,所以要考虑维度的匹配,这里的上标T表示矩阵的转置,即行列互换。

可以看到初始W矩阵为(2,3),则转置后的矩阵维度为(3,2)

计算完成之后我们尝试写出计算图的反向传播:

左边为我们标识了每个矩阵的维度,千万记住保证矩阵的维度匹配,否则会报错。

我们再来看看每个变量的形状:这里可以看到X和\frac{\partial L}{\partial X}相同,W和\frac{\partial L}{\partial W}相同。

6.2  批处理版本

之前学习的Affine层输入都是一个单独的数据X,现在我们要考虑N个数据的情况,即批处理版本的Affine层。

先给出批处理版本的计算图:

现在的输入形状为(N,2),反向传播时要注意观察矩阵的形状,这样就可以推导出X和W的导数值。

还要注意的是,偏置项B在正向传播时会加到每个数据上,例子如下:

正向传播的偏置项会给每一个元素添加,故在反向传播中,各个数据的反向传播导数值需要汇总为偏置的元素。代码表示如下:

这里sum函数中的两个参数分别是原始数组和按轴相加,axis=0则表示按照数组的第0轴(即以数据为单位的轴)的方向上进行求和。

综上所述,我们的Affine层实现如下:

Class Affine:def __init__(self,w,b):self.w = wself.b = bself.x = Noneself.dw = Noneself.db = Nonedef forward(self,x):self.x = xout np.dot(x,self.w) + breturn outdef backward(self,dout):dx = np.dot(dout,self,w.T)self.dw = np.dot(self.x.T,dout)self.db = np.sum(dout,axis=0)return dx
http://www.dtcms.com/wzjs/467064.html

相关文章:

  • 进入公众号信阳云seo交流博客
  • 科技型中小企业服务网郑州seo阿伟
  • 泰州哪家做网站建设比较好如何制作微信小程序店铺
  • 杭州互联网网站定制公司腾讯控股第三季度营收1401亿
  • 企业3合1网站建设电话营销渠道有哪几种
  • 昆山建设监察大队网站网站建设报价单
  • 360搜索网站提交百度上做推广怎么收费
  • 新疆建设网查询中心seo排名的方法
  • 做网站的一些话术怎样在浏览器上找网站
  • 易语言可以做api网站对接吗seo快速排名外包
  • 免费搭建seo营销网站
  • 做网站后台程序是怎么来的seo推广优化官网
  • 比较好的做网站的公司seo实战指导
  • 上海建设网站的网站老哥们给个关键词
  • 党建网站怎么做网站建设公司seo关键词
  • 求免费网站能看的2021推广资源网
  • 21天网站建设实录网站搜什么关键词好
  • 做城市分类信息网站好做吗杭州网络排名优化
  • 苏州网站制作哪家好软文网站平台
  • 网站建设流程资料河南郑州最新事件
  • 越秀低价网站建设网站推广优化
  • c 怎么做网站公司seo是指什么意思
  • 北京网站建设需要花多少钱营销失败案例分析
  • 金坛区住房城乡建设局网站环球网
  • 网页设计与网站建设完全教程seo和sem分别是什么
  • 做快递单网站关键词排名怎么做上首页
  • 安徽住房与城乡建设门户网站如何推广一个产品
  • 鹿泉手机网站建设深圳网站建设优化
  • 网站建设1選宙斯站长免费网站怎么申请
  • 中国建设大数据黑帽seo培训