当前位置: 首页 > wzjs >正文

大连零基础网站建设教学电话深圳企业推广网站排名

大连零基础网站建设教学电话,深圳企业推广网站排名,网站后期维护包括,小码短链接多层感知机 结构组成 大致由三层组成:输入层-隐藏层-输出层,其中隐藏层大于等于一层 其中,隐藏层和输出层都是全连接 隐藏层的层数和神经元个数也是超参数 多层隐藏层,在本质上仍等价于单层神经网络(可从输出方程…

多层感知机

结构组成

大致由三层组成:输入层-隐藏层-输出层,其中隐藏层大于等于一层

其中,隐藏层和输出层都是全连接

隐藏层的层数和神经元个数也是超参数

多层隐藏层,在本质上仍等价于单层神经网络(可从输出方程简单推得),
但是增加网络的深度可以更加有效地提高网络对深层抽象概念的理解,降低训练难度

激活函数

目前Sigmoid函数正在被逐渐淘汰,目前仅在二分类问题上仍有用武之地

目前最主流的激活函数是ReLU函数及其变种,它使模型更加简单高效,没有梯度消失问题,对输入的敏感程度更高,迭代速度更快

具体实现

  • 完整版本
import d2lzh as d2l
from mxnet import nd
from mxnet.gluon import loss as gloss'''
基础准备工作
'''
batch_size = 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)num_inputs, num_outputs, num_hiddens = 784, 10, 256W1 = nd.random.normal(scale=0.01, shape=(num_inputs, num_hiddens))      # 形状等于 输入*输出
b1 = nd.zeros(num_hiddens)
W2 = nd.random.normal(scale=0.01, shape=(num_hiddens, num_outputs))      # 形状等于 输入*输出
b2 = nd.zeros(num_outputs)
params = [W1, W2, b1, b2]
for param in params:param.attach_grad()     # 统一申请梯度空间# 激活函数
def relu(X):return nd.maximum(X, 0)# 模型
def net(X):# 一个图片样本正好转化成1*num_inputs的大小,不是巧合,就是要一次性把整张图片放进网络X = X.reshape((-1, num_inputs)) H = relu(nd.dot(X, W1)+b1)      # 隐藏层需要应用激活函数return nd.dot(H, W2) + b2       # 输出层不需要用激活函数# 损失
loss = gloss.SoftmaxCrossEntropyLoss()'''
开始训练
'''
num_epochs, lr = 20, 0.2
d2l.train_ch3(net, test_iter, test_iter, loss, num_epochs, batch_size, params, lr)
  • 简化版本
import d2lzh as d2l
from mxnet import gluon, init
from mxnet.gluon import loss as gloss, nnnet = nn.Sequential()
# 添加一层256个节点的全连接层,并使用ReLU激活函数
# 再添加一层10个节点的全连接层,不使用激活函数(输出层)
net.add(nn.Dense(256, activation='relu'), nn.Dense(10))
net.initialize(init.Normal(sigma=0.01))batch_size = 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)loss = gloss.SoftmaxCrossEntropyLoss()trainer = gluon.Trainer(net.collect_params(), 'sgd', {"learning_rate": 0.2})
num_epochs = 20
d2l.train_ch3(net, test_iter, test_iter, loss, num_epochs, batch_size, None, None, trainer)

实际上只简化了训练器的构建,由此也可以发现,实现一个网络的训练是一件非常简单的事情,复杂的主要是训练前后的各种处理,训练只是手段,不是目的

注意事项

尝试将隐藏层的数量改成1024,再增加训练次数,此时可以发现,模型对训练集的误差一直在缩小,但是对测试集的误差不降反增,此时发生了过拟合

http://www.dtcms.com/wzjs/781702.html

相关文章:

  • 淮安淮阴网站建设wordpress制作婚礼网页
  • 手机网站有免费做的吗企业模式网站列表管理器
  • 三水 网站建设下载一个网站的源码下载
  • 好看的单页面网站模板免费下载怎么创造游戏软件
  • 郑州企业建站策划东莞建网站哪家好
  • 百捷网站建设工资怎样将wordpress导出
  • 英文外贸网站建设无锡常州网络推广
  • 常用的网站推广方法聊大 网站设计
  • 常州做网站要多少钱河北石家庄网站建设
  • 手机在线做ppt的网站有哪些问题wordpress 仿雷锋网
  • 天津网站专业制作杭州网络传媒有限公司
  • 那个网站做生鲜wordpress 查询函数
  • 搜狐网站开发弹幕网站开发代码
  • 济宁专业网站建设最好的做网站的公司
  • 枣庄网站建设哪家强网页广告设计
  • 怎么免费创建自己的网站平台安阳网红打卡地
  • 新做好的网站如何做seo电商网站开发模版
  • 一键生成作文的网站大型企业网站建设方案
  • 北京建展科技发展有限公司seo实战
  • 网站描述 修改wordpress idp
  • 设置网站默认编码做网页游戏怎么赚钱
  • 懂福溶州做戒网站深圳网页设计培训视频
  • 一个网站占空间有多少g银行存款营销活动方案
  • 茶叶商城网站建设青岛模板网站建设
  • TP5企业网站开发教程百度云做精品课程网站需要啥素材
  • 东至网站建设crm管理软件
  • moodle网站建设阿里巴巴申请网站怎么做
  • 网站上那些轮播图视频怎么做的专业网站制
  • 甜品网站建设规划公司网站开发外包公司
  • 企业做网站推广html简单一套网页源代码