当前位置: 首页 > wzjs >正文

商洛网站建设公司电话建设摩托车125价格

商洛网站建设公司电话,建设摩托车125价格,网站导航做多大,dede怎么换网站页面在这篇文章中,我将介绍有关深度学习的东西,主要是它与神经网络的关系、目前主要的网络有哪些,以及加深神经网络的意义等。 一、联系 在之前的文章中,我曾介绍过神经网络,而所谓的神经网络其实就是深度学习的一种架构…

在这篇文章中,我将介绍有关深度学习的东西,主要是它与神经网络的关系、目前主要的网络有哪些,以及加深神经网络的意义等。

一、联系

在之前的文章中,我曾介绍过神经网络,而所谓的神经网络其实就是深度学习的一种架构,当神经网络的不存在隐藏层时,就是普通的感知机,但如果添加并加深隐藏层数,那么就是深度学习。加深这些隐藏层数量,可以增强模型的学习能力,使之能够处理更为复杂的数据结构和模式,这是深度学习的一大特点。

二、主要网络

通常,我们认为是在2012年举行的大规模图像识别大赛ILSVRC以压倒性优势胜出而被人们重视深度学习。而随着这些年的发展,主要的网络有VGG、GoogleNet、ResNet等。

接下来我将大致介绍一下这三种网络:

2.1 VGG

VGG是由卷积层和池化层够成的基础CNN,其中,它具有权重的层数一般都是16层或者19层,因此,它也被叫做VGG16VGG19。如下是一个使用了该网络进行预测的代码:

import tensorflow as tf
from tensorflow.keras.applications import VGG16
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Flatten
from tensorflow.keras.datasets import cifar10
from tensorflow.keras.optimizers import Adam
from tensorflow.keras.utils import to_categorical(train_images, train_labels), (test_images, test_labels) = cifar10.load_data()train_images = tf.image.resize(train_images, [75, 75])
test_images = tf.image.resize(test_images, [75, 75])train_images, test_images = train_images / 255.0, test_images / 255.0train_labels = to_categorical(train_labels)
test_labels = to_categorical(test_labels)base_model = VGG16(weights='imagenet', include_top=False, input_shape=(75, 75, 3))model = Sequential()
model.add(base_model)
model.add(Flatten())
model.add(Dense(4096, activation='relu'))
model.add(Dense(4096, activation='relu'))
model.add(Dense(10, activation='softmax')) for layer in base_model.layers:layer.trainable = Falsemodel.compile(optimizer=Adam(lr=0.0001), loss='categorical_crossentropy', metrics=['accuracy'])history = model.fit(train_images, train_labels, epochs=10, validation_data=(test_images, test_labels))test_loss, test_acc = model.evaluate(test_images, test_labels, verbose=2)
print('Test accuracy:', test_acc)
2.2 GoogleNet

GoogleNet与CNN具有相同的结构,但不同的是GoogleNet在具有长度的基础上也具有宽度,即广度,而它这种横向具有宽度的结构被称为“Inception结构”。这种Inception结构使用许多不同大小的滤波器和池化,然后再将之合并。GoogleNet的特征正是将这种结构作为一个构成元素去构成整个网络,因此,该网络也称为Inception-v1。如下是使用这种网络的代码:

import tensorflow as tf
from tensorflow.keras.applications import InceptionV3
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Flatten, GlobalAveragePooling2D
from tensorflow.keras.datasets import cifar10
from tensorflow.keras.optimizers import Adam
from tensorflow.keras.utils import to_categorical(train_images, train_labels), (test_images, test_labels) = cifar10.load_data()train_images = tf.image.resize(train_images, [75, 75])
test_images = tf.image.resize(test_images, [75, 75])train_images, test_images = train_images / 255.0, test_images / 255.0train_labels = to_categorical(train_labels)
test_labels = to_categorical(test_labels)base_model = InceptionV3(weights='imagenet', include_top=False, input_shape=(75, 75, 3))model = Sequential()
model.add(base_model)
model.add(GlobalAveragePooling2D()) 
model.add(Dense(1024, activation='relu')) 
model.add(Dense(10, activation='softmax')) for layer in base_model.layers:layer.trainable = Falsemodel.compile(optimizer=tf.keras.optimizers.Adam(learning_rate=0.0001),loss='categorical_crossentropy',metrics=['accuracy'])history = model.fit(train_images, train_labels, epochs=10, validation_data=(test_images, test_labels))test_loss, test_acc = model.evaluate(test_images, test_labels, verbose=2)
print('Test accuracy:', test_acc)
2.3 ResNet

ResNet是微软团队开发的网络,它比其它的网络具有更深的结构。但通常,如果我们一味加深网络,往往会出现各种各样的问题,导致性能的不佳,因此,在该网络中导入了“快捷结构”,它也叫“捷径”或“快捷连接”。

其中,出现的主要问题就是梯度消失梯度爆炸以及退化问题,具体来说就是在深层网络中,反向传播过程中的梯度可能会变得非常小(梯度消失)或非常大(梯度爆炸),这使得网络难以训练。而退化问题就是即使优化算法能够解决梯度消失或爆炸的问题,更深的模型性能可能并不会如预期那样优于较浅的模型。实际上,在某些情况下,更深的模型性能反而会下降。

解决这些问题的方法——快捷连接,具体来说,这些连接将输入直接加到输出层上(假设尺寸匹配;如果不匹配,则通过线性投影调整尺寸),形成所谓的“残差块”。这种设计让网络学习残差函数F(x)=H(x)−x,而不是原始的目标映射H(x),其中x是输入,H(x)是期望的底层映射。

如下是使用这种网络的代码:

import tensorflow as tf
from tensorflow.keras.applications import ResNet50
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, GlobalAveragePooling2D
from tensorflow.keras.datasets import cifar10
from tensorflow.keras.utils import to_categorical(train_images, train_labels), (test_images, test_labels) = cifar10.load_data()train_images = tf.image.resize(train_images, [224, 224])
test_images = tf.image.resize(test_images, [224, 224])train_images, test_images = train_images / 255.0, test_images / 255.0train_labels = to_categorical(train_labels)
test_labels = to_categorical(test_labels)base_model = ResNet50(weights='imagenet', include_top=False, input_shape=(224, 224, 3))model = Sequential()
model.add(base_model)
model.add(GlobalAveragePooling2D()) 
model.add(Dense(1024, activation='relu')) 
model.add(Dense(10, activation='softmax'))for layer in base_model.layers:layer.trainable = Falsemodel.compile(optimizer=tf.keras.optimizers.Adam(learning_rate=0.0001),loss='categorical_crossentropy',metrics=['accuracy'])history = model.fit(train_images, train_labels, epochs=10, validation_data=(test_images, test_labels))test_loss, test_acc = model.evaluate(test_images, test_labels, verbose=2)
print('Test accuracy:', test_acc)

三、加深的意义

随着神经网络深度的加深,一般会有这些方面的意义,分别是表达能力的提升、解决复杂问题的能力的提升、参数效率、迁移学习等。

具体来说,首先是表达能力方面,随着网络层数的增加,神经网络能够学习到数据中更复杂的特征和模式。深层网络可以捕捉到输入数据中的多层次抽象表示,从而更好地理解图像、文本或声音等复杂的数据结构;

然后是解决复杂能力的提升,随着神经网络深度的加深,其可以构建出更加复杂的函数模型,从而能更好去处理复杂的任务;

接着是参数效率,因为深度的加深,神经网络可以逐层提炼和组合特征,而不是一次性就去捕捉所有的细节,所以性能可以得到很好的提升;

最后是迁移学习上,我们可以先构建一个较深的网络出来,然后训练这个较深的网络得到优秀的参数,接着将这些参数复制到新的网络上再学习,这样可以得到更好的效果来,并降低过拟合的风险以及减少训练时间。

此上


文章转载自:

http://ZMqmoNGF.qbjrf.cn
http://KX1toYzD.qbjrf.cn
http://RuGOIYbO.qbjrf.cn
http://VDNJAucB.qbjrf.cn
http://0NGYpkwv.qbjrf.cn
http://D7hO4Ech.qbjrf.cn
http://LWnQkd3v.qbjrf.cn
http://DCqspjpw.qbjrf.cn
http://GjcGrSVk.qbjrf.cn
http://g0bXCyym.qbjrf.cn
http://GAQIUcTu.qbjrf.cn
http://slC1z7LR.qbjrf.cn
http://s6V0zrJE.qbjrf.cn
http://40TvRMLJ.qbjrf.cn
http://24Kq2F0A.qbjrf.cn
http://0867Abcg.qbjrf.cn
http://tVDPvTjz.qbjrf.cn
http://0jnDfAVb.qbjrf.cn
http://5OZ5L2Dg.qbjrf.cn
http://TcAuB9js.qbjrf.cn
http://mfYnn7X7.qbjrf.cn
http://AMWl85w6.qbjrf.cn
http://W6FouAFW.qbjrf.cn
http://UfGMgJBq.qbjrf.cn
http://9JCGinh9.qbjrf.cn
http://AkPj059M.qbjrf.cn
http://Jq5KJjxq.qbjrf.cn
http://0e5biSsD.qbjrf.cn
http://qRwA6aUa.qbjrf.cn
http://ZDbhN2r1.qbjrf.cn
http://www.dtcms.com/wzjs/689274.html

相关文章:

  • 网站建设和原则母婴网站建设前期规划
  • 国内电商网站跳出率是多少wordpress xmlrpc攻击
  • 菏泽官方网站蚁坊软件舆情监测系统
  • 文章网站后台管理系统怎样建设一个好的网站
  • 新蔡县做网站收多少钱福州工程建设信息网站
  • 下载flash网站江西智能网站建设哪家好
  • 博客网站设计方案什么类型的网站开发比较困难
  • 网站公司网站定制广告设计月薪多少钱
  • 社交网站有哪些如何做wordpress编辑器段间距
  • 如何快速做单页面网站seo计费系统登录
  • 永州网站建设优化十大看免费行情的软件下载大全
  • 互联网网站建设公司两学一做 官方网站
  • 有没有专业做挂的网站盐城网站关键词优化
  • 开化网站建设东莞网站优化教程
  • 罗湖区网站建设多少钱手工制作小店铺
  • 端午节网站建设装修公司网站建设方案
  • 做化工贸易要用那些网站推广网站域名备案号查询
  • 怀化网站优化联系方式数商云官网
  • 网站机房建设流程腾讯云远程安装wordpress
  • 大连网站建设哪个公司好互联网怎么学
  • 龙岗网站改版搜索引擎查重
  • 织梦网站手机版怎么做最吉利旺财的建筑公司名字
  • 怎么做qq空间支付网站网站建设公司 销量
  • 广东平台网站建设制作官方网站撰写策划书
  • 做新闻封面的网站wordpress调整小工具位置
  • 做网站跳转怎么收费群晖服务器做网站
  • 网站导航html源码金融代理平台代理加盟
  • 网站怎么做安全购物网站后台怎么做
  • 做网站需要用什么技术主机做网站工具
  • 网站制作哪里做得好免费网站生成