当前位置: 首页 > wzjs >正文

做网站到底要不要备案wordpress主题模板制作教程

做网站到底要不要备案,wordpress主题模板制作教程,山东济南发布最新通知,画家网站建设🔥 Google机器学习实践指南(TensorFlow六大优化器) Google机器学习实战(12)-20分钟掌握TensorFlow优化器 一、优化器核心作用 ▲ 训练本质: 迭代求解使损失函数最小化的模型参数,关键要素: 特征工程&…

🔥 Google机器学习实践指南(TensorFlow六大优化器)

Google机器学习实战(12)-20分钟掌握TensorFlow优化器


一、优化器核心作用

▲ 训练本质:
迭代求解使损失函数最小化的模型参数,关键要素:

  • 特征工程(Feature)
  • 优化算法(Optimizer)

本文主要对其中的优化算法进行说明,关于特征工程,欢迎查看前一篇:Google机器学习实战(11)-特征工程六大方法深度解析与应用


二、优化器类型详解

1. SGD随机梯度下降

**说明:**SGD全名 stochastic gradient descent, 即随机梯度下降,但在TensorFlow中SDG是指MBGD(minibatch gradient descent),即最小梯度下降。

**参数:**学习速率 ϵ, 初始参数 θ
实际实现:MBGD(小批量梯度下降)
在这里插入图片描述
▲ 图1 SGD参数更新过程

my_optimizer = tf.optimizers.SGD(learning_rate = 0.0000001, clipnorm=5.0)

特点

  • 训练速度快
  • 自带正则化效果

2. Momentum

**说明:**momentum即动量,在更新的时候一定程度上保留之前更新的方向,同时利用当前batch的梯度微调最终的更新方向。从而在一定程度上增加稳定性,使得学习地更快,并且还有一定摆脱局部最优的能力。

**参数:**学习速率 ϵ, 初始参数 θ, 初始速率v, 动量衰减参数α
在这里插入图片描述
在这里插入图片描述
▲ 图2 普通SGD与Momentum法对比
优势

  • 加速同向梯度学习
  • 抑制方向震荡

3. Nesterov Momentum

**说明:**Nesterov Momentum(牛顿动量法)是momentum方法的一项改进,与Momentum唯一区别是计算梯度的不同,Nesterov momentum先用当前的速度v更新一遍参数,再用更新的临时参数计算梯度。

**参数:**学习速率 ϵ, 初始参数 θ, 初始速率v, 动量衰减参数α
在这里插入图片描述
▲ 图3 Nesterov Momentum前瞻性更新

改进点

  • 先按当前速度更新参数
  • 在临时参数点计算梯度

4. AdaGrad

说明:AdaGrad(自适应梯度算法)是一种自适应学习率的梯度下降优化算法。它通过累积参数梯度的历史信息来为每个参数自适应地调整学习率。

参数: 全局学习速率 ϵ, 初始参数 θ, 数值稳定量δ

优点:

  • 能够实现学习率的自动更改

缺陷

  • 深度网络易提前终止

5. RMSProp

说明: RMSProp通过引入一个衰减系数,让r每回合都衰减一定比例,类是对AdaGrad算法的改进。

参数: 全局学习速率 ϵ, 初始参数 θ, 数值稳定量δ,衰减速率ρ
在这里插入图片描述

▲ 图4 学习率自适应过程

改进

  • 引入衰减系数ρ
  • 解决AdaGrad过早收敛问题

6. Adam

**说明:**Adam(Adaptive Moment Estimation)本质上是带有动量项的RMSprop,利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率。Adam的优点主要在于经过偏置校正后,每一次迭代学习率都有个确定范围,使得参数比较平稳。

**参数:**步进值 ϵ, 初始参数 θ, 数值稳定量δ,一阶动量衰减系数ρ1, 二阶动量衰减系数ρ2 (经验值:δ=10^−8,ρ1=0.9,ρ2=0.999)。

算法流程

  1. 计算一阶/二阶动量
  2. 偏差校正
  3. 参数更新

参数建议

  • ρ1=0.9
  • ρ2=0.999
  • δ=10^-8

三、优化器性能对比

优化器收敛速度内存消耗超参数敏感性
SGD⭐⭐
Momentum⭐⭐⭐
Nesterov Momentum⭐⭐⭐⭐
AdaGrad⭐⭐
RMSProp⭐⭐⭐
Adam⭐⭐⭐⭐

四、工程实践建议

选择策略

  • 简单任务:SGD+Momentum
  • 稀疏数据:AdaGrad
  • 默认首选:Adam

调参技巧

lr_schedule = tf.optimizers.schedules.PolynomialDecay(initial_learning_rate=0.01,decay_steps=10000,end_learning_rate=0.001
)

# 技术问答 #

Q:Adam优化器为什么需要偏差校正?
A:解决初始阶段动量估计偏向0的问题,确保训练初期稳定性

Q:如何选择优化器?
A:从Adam开始尝试,对性能敏感场景可比较SGD+Momentum


附录:学习资源

TensorFlow优化器文档:https://www.tensorflow.org/api_docs/python/tf/optimizers
优化算法可视化:https://ruder.io/optimizing-gradient-descent/

参考文献:
[1]《深度学习优化算法综述》
[2] TensorFlow官方优化器指南


文章转载自:

http://y69hHq8A.bkkgt.cn
http://UWcVETdQ.bkkgt.cn
http://j3SQzufq.bkkgt.cn
http://kYDaBvlf.bkkgt.cn
http://zVw5WMmk.bkkgt.cn
http://JHIUxmNy.bkkgt.cn
http://a2EXaH8X.bkkgt.cn
http://KMuHG7xN.bkkgt.cn
http://UE67eKmC.bkkgt.cn
http://H47RzU4c.bkkgt.cn
http://WS6kSra9.bkkgt.cn
http://zjbehya9.bkkgt.cn
http://vS8uAiua.bkkgt.cn
http://qEn48fti.bkkgt.cn
http://JRkGdZKQ.bkkgt.cn
http://ZQ5zgotP.bkkgt.cn
http://2R8D87JR.bkkgt.cn
http://RyZi1P3e.bkkgt.cn
http://ZTqyUlnc.bkkgt.cn
http://9UwUgCzn.bkkgt.cn
http://OLiLcmNq.bkkgt.cn
http://jIDLTxXW.bkkgt.cn
http://4G4YNi6W.bkkgt.cn
http://juEQDifb.bkkgt.cn
http://4bSMygiA.bkkgt.cn
http://tvQU4w7V.bkkgt.cn
http://e6oJVHzD.bkkgt.cn
http://Z1qbGRSI.bkkgt.cn
http://hUrsKmfm.bkkgt.cn
http://rll90rnN.bkkgt.cn
http://www.dtcms.com/wzjs/627444.html

相关文章:

  • WordPress网站关闭插件网站设计建设维护
  • 建设银行的网站是什么情况个人网页的设计与制作价值
  • 注册网站流程和费用电子商务网站开发系统
  • 做技能培训和那个网站合作好wordpress无法后台
  • iis 网站正在建设中wordpress免费主题企业
  • 网站建设与管理实验心得网站交互图片怎么做
  • 网站空间备案要多久企业公司信息网
  • 免费网站建设下载常见的管理信息系统有哪些
  • 有做微推客的网站吗网站建设招标要求
  • 网站建设培训价格直播app开发技术
  • 网站建设及推广培训班网站开发技术视频教程
  • 常州网站推广平台正规的网站建设企业网站制作
  • 网站优化推广方法企业做的网站计入什么科目
  • 怎么做卖车网站优惠券网站要怎么做推广
  • 北京网站优化效果山东建设报网站
  • 网站备案网站要有内容吗优化大师手机版
  • 广东网站建设联系电话网页设计代写价格
  • 哈尔滨网站制作公司价格个人网站建设心得
  • 商丘 峰少 seo博客湖南seo优化报价
  • 浙江高端网站建设公司数据来源于网站需如何做脚注
  • 昌吉 建设局 网站遵义网签备案查询系统
  • 百度收录网站定位地址wordpress换语言
  • 注册公司网站模板下载东莞易宣网站建设公司怎么样
  • 浙江建设职业技术学院招生网站注册网站刀具与钢材经营范围
  • 宁波网站制作 收费标准安防公司做网站图片
  • app软件网站建设沪尚茗居装修价格怎样
  • 公司开网站干嘛注册成立一个公司需要多少钱
  • 佛山模板网站建设家在深圳我在房网信息论坛
  • 国内最先做弹幕的网站如何免费制作一个自己的网站
  • 谁有好的网站推荐一个做pc网站排名