当前位置: 首页 > news >正文

网站怎么做才会有收录拓者设计吧账号

网站怎么做才会有收录,拓者设计吧账号,网络,装修案例视频文章目录 深度学习基本原理 数学基础 线代 numpy 常用操作 导数, 梯度 梯度下降法 梯度下降代码 GradientDescent.py 反向传播 完整的反向传播过程 权重更新方式 pytorch 网络结构 全连接层 (线性层) 例子 - 手动实现模拟一个线性层 DNNforward.py 激活函数 激活函数-Sigmoid…

文章目录

  • 深度学习基本原理
    • 数学基础
      • 线代
      • numpy 常用操作
      • 导数, 梯度
      • 梯度下降法
        • 梯度下降代码 GradientDescent.py
        • 反向传播
        • 完整的反向传播过程
        • 权重更新方式
  • pytorch
      • 网络结构
        • 全连接层 (线性层)
          • 例子 - 手动实现模拟一个线性层 DNNforward.py
        • 激活函数
          • 激活函数-Sigmoid
          • 激活函数-tanh
          • 激活函数-relu
          • 激活函数-Gelu
          • 激活函数-Softmax
      • 损失函数
        • 均方差
        • 交叉熵
          • 例子-手动实现交叉熵-CrossEntropy.py
      • 代码 - 二分类任务

深度学习基本原理

数学基础

线代

向量运算

  • 加和
  • 内积
  • 向量夹角余旋值

矩阵

  • 加法
  • 乘法
  • 转置

向量到矩阵的互转

reshape

张量 tensor

将三个 2x2的矩阵排列在一起,就可以称之为3x2x2的张量

是神经网络的训练中最为常见的数据形式,维度相同的几个矩阵放在一起

这是2x2x2的张量
[ [ [ 1 , 2 ] , [ 3 , 4 ] ] , [ [ 5 , 6 ] , [ 7 , 8 ] ] ] \begin{bmatrix} [[1,2],\\ [3,4]],\\ [[5,6],\\ [7,8]]\end{bmatrix} [[1,2],[3,4]],[[5,6],[7,8]]
张量的常见操作

转置 x.transpose(1,2)
[ [ [ 1 , 3 ] , [ 2 , 4 ] ] , [ [ 5 , 7 ] , [ 6 , 8 ] ] ] \begin{bmatrix} [[1,3],\\ [2,4]],\\ [[5,7],\\ [6,8]]\end{bmatrix} [[1,3],[2,4]],[[5,7],[6,8]]
在上面的基础上转置 x.transpose(0,1)
[ [ [ 1 , 2 ] , [ 5 , 6 ] ] , [ [ 3 , 4 ] , [ 7 , 8 ] ] ] \begin{bmatrix} [[1,2],\\ [5,6]],\\ [[3,4],\\ [7,8]]\end{bmatrix} [[1,2],[5,6]],[[3,4],[7,8]]

numpy 常用操作

import numpy as np
import torchx = np.array([[1,2,3],[4,5,6]])print(x)
print(x.ndim)#维度  2
print(x.shape)# 获取行列维度  (2, 3)
print(x.size)#一共多少个数字  6
print(x.dtype)#类型   int64
print(np.sum(x))#矩阵内所有元素的和 21
print(np.sum(x,axis=0))#行相加 [5 7 9]
print(np.sum(x,axis=1))#列相加 [ 6 15]
print(np.reshape(x,(3,2)))#变换维度[[1 2]#[3 4]#[5 6]]#[[1.         1.41421356 1.73205081]#[2.         2.23606798 2.44948974]]
print(np.sqrt(x))#每个数字开平方#[[  2.71828183   7.3890561   20.08553692]
# [ 54.59815003 148.4131591  403.42879349]]
print(np.exp(x))#每个数求指数
print(x.transpose())#转置
print(x.flatten())#变成一维向量 [1 2 3 4 5 6]x = torch.FloatTensor(x)
print(x.shape)#torch.Size([2, 3])
#tensor([[  2.7183,   7.3891,  20.0855],# [ 54.5981, 148.4132, 403.4288]])
print(torch.exp(x))
print(torch.sum(x))#tensor(21.)
print(torch.sum(x,dim=0))#tensor([5., 7., 9.])
print(torch.sum(x,dim=1))#tensor([ 6., 15.])
'''
tensor([[1., 4.],[2., 5.],[3., 6.]])
'''
print(x.transpose(1,0))
print(x.flatten())#tensor([1., 2., 3., 4., 5., 6.])

导数, 梯度

表示函数变化的方向
f ′ ( x 0 ) = l i m Δ y Δ x = l i m f ( x 0 + Δ x ) − f ( x 0 ) Δ x f'(x_0) = lim\frac{\Delta y}{\Delta x} = lim \frac{f(x_0 + \Delta x) - f(x_0)}{\Delta x} f(x0)=limΔxΔy=limΔxf(x0+Δx)f(x0)
求导法则

  • 加法
  • 乘法
  • 除法
  • 链式求导

梯度

多元函数的导数

原函数: y = 3 x 1 2 + 4 x 2 2 + 5 x 3 2 y = 3x_1^2 + 4x_2^2 + 5x_3^2 y=3x12+4x22+5x32

导函数: y = 6 x 1 + 8 x 2 + 10 x 3 y = {6x_1 + 8x_2 + 10x_3} y=6x

http://www.dtcms.com/a/448875.html

相关文章:

  • 月子中心网站设计2345网址导航站
  • seo综合查询站长工具关键词搬家网站建设案例说明
  • 网站的策划做推广上海人才网最新招聘2021
  • 快手点赞购买网站网站建设主要内容包括
  • 手机网站建设一般要多少钱程序员培训比较好机构有哪些
  • 团购网站优化电商自建站
  • 标准型网站建设广州网站建设培训学校
  • 网站建设制作视频厦门装修公司排名前十口碑推荐
  • 网站建设的活怎么接互联网推广服务
  • wordpress页面发布失败为什么seo顾问阿亮博客
  • 制作网站什么制作软件北京动漫设计公司有哪些
  • 广州一网通注册公司手机优化如何弄到100
  • 济南网站建设培训班那个网站能找到人
  • 网站前台显示数据库指定分类怎么做phpdw2020网页设计教程
  • 手机做兼职的网站设计湖北省建设主管网站
  • 专业网站建设制网站后台设置关键词在哪设
  • 网站关键词几个字南阳建设网站制作
  • 山西门户网站建设动漫电影做英语教学视频网站有哪些
  • 东莞市非凡网站建设微信搜一搜怎么做推广
  • 简要概括自建网站的优缺点太原seo网站管理
  • 网站建设主要推广方式专业网站公司
  • 网站建设单位有哪些wordpress高级视频教程
  • 某网站自己做中性笔前端性能优化
  • 网页怎么做成网站wordpress title 竖线
  • 做网站的书电子商务网站建设的基本构成
  • 南京铁路建设网站清远市建设工程造价信息网站
  • 国内做视频的网站有哪些亲子乐园网站建设规划
  • asp 网站 源码哈尔滨网站建设云聚达
  • 宜兴做网站多少钱株洲营销型网站建设
  • 如何做中介网站百度识图扫一扫入口