当前位置: 首页 > wzjs >正文

网站建设可以修改吗黄页网

网站建设可以修改吗,黄页网,南宁工程建设网站有哪些,淘宝做批发的网站多层感知机 结构组成 大致由三层组成:输入层-隐藏层-输出层,其中隐藏层大于等于一层 其中,隐藏层和输出层都是全连接 隐藏层的层数和神经元个数也是超参数 多层隐藏层,在本质上仍等价于单层神经网络(可从输出方程…

多层感知机

结构组成

大致由三层组成:输入层-隐藏层-输出层,其中隐藏层大于等于一层

其中,隐藏层和输出层都是全连接

隐藏层的层数和神经元个数也是超参数

多层隐藏层,在本质上仍等价于单层神经网络(可从输出方程简单推得),
但是增加网络的深度可以更加有效地提高网络对深层抽象概念的理解,降低训练难度

激活函数

目前Sigmoid函数正在被逐渐淘汰,目前仅在二分类问题上仍有用武之地

目前最主流的激活函数是ReLU函数及其变种,它使模型更加简单高效,没有梯度消失问题,对输入的敏感程度更高,迭代速度更快

具体实现

  • 完整版本
import d2lzh as d2l
from mxnet import nd
from mxnet.gluon import loss as gloss'''
基础准备工作
'''
batch_size = 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)num_inputs, num_outputs, num_hiddens = 784, 10, 256W1 = nd.random.normal(scale=0.01, shape=(num_inputs, num_hiddens))      # 形状等于 输入*输出
b1 = nd.zeros(num_hiddens)
W2 = nd.random.normal(scale=0.01, shape=(num_hiddens, num_outputs))      # 形状等于 输入*输出
b2 = nd.zeros(num_outputs)
params = [W1, W2, b1, b2]
for param in params:param.attach_grad()     # 统一申请梯度空间# 激活函数
def relu(X):return nd.maximum(X, 0)# 模型
def net(X):# 一个图片样本正好转化成1*num_inputs的大小,不是巧合,就是要一次性把整张图片放进网络X = X.reshape((-1, num_inputs)) H = relu(nd.dot(X, W1)+b1)      # 隐藏层需要应用激活函数return nd.dot(H, W2) + b2       # 输出层不需要用激活函数# 损失
loss = gloss.SoftmaxCrossEntropyLoss()'''
开始训练
'''
num_epochs, lr = 20, 0.2
d2l.train_ch3(net, test_iter, test_iter, loss, num_epochs, batch_size, params, lr)
  • 简化版本
import d2lzh as d2l
from mxnet import gluon, init
from mxnet.gluon import loss as gloss, nnnet = nn.Sequential()
# 添加一层256个节点的全连接层,并使用ReLU激活函数
# 再添加一层10个节点的全连接层,不使用激活函数(输出层)
net.add(nn.Dense(256, activation='relu'), nn.Dense(10))
net.initialize(init.Normal(sigma=0.01))batch_size = 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)loss = gloss.SoftmaxCrossEntropyLoss()trainer = gluon.Trainer(net.collect_params(), 'sgd', {"learning_rate": 0.2})
num_epochs = 20
d2l.train_ch3(net, test_iter, test_iter, loss, num_epochs, batch_size, None, None, trainer)

实际上只简化了训练器的构建,由此也可以发现,实现一个网络的训练是一件非常简单的事情,复杂的主要是训练前后的各种处理,训练只是手段,不是目的

注意事项

尝试将隐藏层的数量改成1024,再增加训练次数,此时可以发现,模型对训练集的误差一直在缩小,但是对测试集的误差不降反增,此时发生了过拟合

http://www.dtcms.com/wzjs/370867.html

相关文章:

  • 网站专题策划页面怎么做网络销售话术900句
  • 平阳网站制作网站设计软件
  • 品牌网站建设怎么做网络营销的期末试题及答案
  • 专做酒的小程序网站百度竞价效果怎么样
  • 网站特效代码上那找好丹东网站seo
  • app网站建设宣传方案品牌营销的四大策略
  • 网站建立的关键技术最新seo新手教程
  • 企业网站建设周期泉州seo托管
  • 西安网站建设哪家专业企业网络营销方法
  • 河北建设工程信息网天行建和园百度seo优化关键词
  • 怀柔手机网站建设百度联盟注册
  • noip免费域名申请东莞seo建站哪家好
  • 山西威力网站建设推荐百度影音在线电影
  • 做网站源代码需要买吗软文的概念是什么
  • 网站制作工具推荐线上营销模式
  • 做网站的机构app拉新推广赚佣金
  • 自拍做爰视频网站宣传推广文案
  • 福州做网站的公司成都网站制作关键词推广排名
  • 网站访问速度优化工具免费开通网站
  • 东莞 科技 公司 网站建设大一网页设计作业成品
  • 企业建站公司是干嘛的baike seotl
  • php网站开发师条件离我最近的广告公司
  • 专业制作网站有哪些公司网站制作费用
  • 深圳官网网站建设怎么给产品找关键词
  • 做瞹瞹嗳视频网站在线观看app推广方案模板
  • 北京大兴黄村网站建设威海百度seo
  • 建设企业网站可信度的具体策略北京seo推广
  • 手机网站建设教程长沙网站关键词推广
  • 东莞网站优化seoseo查询 站长工具
  • 成都公司做网站国家高新技术企业名单