当前位置: 首页 > wzjs >正文

2016政府网站建设经验百度海南分公司

2016政府网站建设经验,百度海南分公司,关于做网站建设公司你应该知道的,网页设计图片加载不出转载文章,学习一下强化学习. 天下苦深度强化学习久矣,这有一份训练与调参技巧手册 https://geek.csdn.net/65d5ab8ab8e5f01e1e460619.html ©作者 | 申岳 单位 | 北京邮电大学 研究方向 | 机器人学习 使用RL的建议 太长不看版 学习 RL 和 Stabl…

转载文章,学习一下强化学习.

天下苦深度强化学习久矣,这有一份训练与调参技巧手册

https://geek.csdn.net/65d5ab8ab8e5f01e1e460619.html
©作者 | 申岳
单位 | 北京邮电大学
研究方向 | 机器人学习

使用RL的建议

太长不看版

  1. 学习 RL 和 Stable Baselines3
  2. 如有必要,进行定量的实验和超参数调整
  3. 使用单独的测试环境评估效果(记得要检查 wrappers!)
  4. 想要更好的效果,就增加训练预算

目前RL的局限

  1. Sample Inefficient:Model-free RL 算法通常需要大量样本(有时需要上百万次交互)才能学到有用的信息。
  2. 对超参数和随机种子敏感:RL 的结果可能因超参数或随机种子的不同而变化。
  3. Reward Function Design:设计良好的奖励函数需要专业知识和多次迭代。

如何评估RL算法?

  • 使用独立的测试环境评估算法,建议每交互 N 次后测试 n 个 episodes,取平均值作为单个 episode 的 reward。
  • 在测试时,对于 A2C、PPO 等算法,调用 .predict() 时应设置 deterministic=True
  • 查看 training curve 是一种不错的方式,但可能会低估 agent 的真实表现。

我该使用哪种算法?

  • 离散动作空间:DQN
  • 连续动作空间:SAC
  • 扩展版本:DQN 的连续版本 NAF,SAC 的离散版本 SAC-Discrete
  • 并行训练:A2C 和 PPO 适合并行训练,可参考 Vectorized Environment。

创建自定义环境的Tips和Tricks

  • Normalization:尽量对 observation space 和 action space 进行归一化。
  • Reward Shaping:从 shaped reward 开始,简化问题。
  • 测试环境:使用随机动作测试环境是否正常。

示例代码:检查自定义环境是否正常

from stable_baselines3.common.env_checker import check_envenv = CustomEnv(arg1, ...)
check_env(env)  # 检查自定义环境并输出警告

示例代码:使用随机动作测试环境

env = YourEnv()
obs = env.reset()
n_steps = 10
for _ in range(n_steps):action = env.action_space.sample()obs, reward, done, info = env.step(action)if done:obs = env.reset()

实现RL算法的Tips和Tricks

  • 步骤
    1. 多次阅读原始论文。
    2. 查看现有实现。
    3. 在简单环境中测试算法。
    4. 在更复杂的环境中运行算法,并进行调参。

个人心得

  • Normalization:对于机械臂的末端位置,建议使用相对工具系的归一化,增强泛化能力。
  • Reward Engineering:先进行 reward shaping,再考虑 sparse reward。
  • 网络结构:向量输入时,通常 2~3 层隐藏层(每层 128 或 256 节点)即可。

其他资源

  • 深度强化学习调参技巧:知乎专栏
  • 深度强化学习落地指南:知乎专栏
  • 知乎问题:深度学习调参有哪些技巧?
  • **原文参考 **: 知乎

参考文献

  1. Stable Baselines3 文档
  2. RL Tips and Tricks
  3. RL 教程
  4. RL 教程代码
  5. RL Zoo
  6. RL 的困难
  7. ANYmal 机器人
  8. Deep Mimic
  9. Evaluation 模块
  10. Callbacks 模块
  11. Deep Reinforcement Learning that Matters
  12. Cédric Colas 的博客
  13. Stable Baselines Issues
  14. NAF 算法
  15. SAC-Discrete 算法
  16. Vectorized Environment
  17. Ape-X 算法
  18. Stable Baselines3 Pull Request
  19. RL 算法指南
  20. HER 算法
  21. 自定义环境指南
  22. Colab Notebook 示例
  23. Stable Baselines Issues
  24. Stable Baselines Issues
  25. RL 研究的 Nuts and Bolts
  26. RL 研究视频
  27. Spinning Up
  28. 机械臂环境
  29. Spinning Up 代码

缘起

随着这波人工智能浪潮的兴起,强化学习(Reinforcement Learning,RL)这坛陈年老酒也借势找到了深度学习这个新瓶子,重新吸引了学术界、工业界乃至吃瓜群众的注意力。对于很多人来说,AI闯入他们视野的标志性事件不是2012年AlexNet的横空出世,而是AlphaGo击败李世石引起的轩然大波。可以这样说,深度强化学习(DRL)不仅点燃了世人对AI的热情,而随着CV方向性能瓶颈的出现,作为一个缺点多多、槽点满满的算法框架,DRL正在吸引越来越多的学者前来填坑,从各大AI顶会RL方向文章数量的逐年上升可见一斑。

算法工作者的“知行合一”

如今网上关于DRL的科普文可谓汗牛充栋,图文与公式并茂,paper与代码齐飞。我自知水平有限,无意在DRL科普界班门弄斧。另一方面我认为算法工作者不应只局限在原理层面,看懂很多公式不代表拥有动手能力;也不应满足于跑通toy tasks的demo,知其然不知其所以然,面对实际问题时可能依旧一头雾水。算法工作者的“知行合一”,需要经历从抽象算法原理到广泛动手实践再上升到统一方法论这三个必要阶段,唯有如此才算真正掌握了知识。

http://www.dtcms.com/wzjs/315566.html

相关文章:

  • 青海网站建设优化流程
  • 网站如何做一张轮播图万网域名注册
  • 深圳建站公司服务郭生b如何优化网站
  • 网站营销是什么意思seo课程排行榜
  • 化妆品公司网站源码常用的seo工具
  • 网站怎么做需要花钱吗app推广方案怎么写
  • 阿里云网站建设教程seo网站排名优化服务
  • 扒完网站代码之后怎么做模板推广seo是什么意思
  • 装修平台加盟seo建站营销
  • 甜品店网站开发背景郑州短视频代运营公司
  • 监控安防的网站怎么做营销自动化
  • 网站建设计什么费用百度关键词在线优化
  • 网页设计代码html软件随州seo
  • 深圳营销型网站建设优化公司百度官网优化
  • mac网页制作软件优化二十条
  • 做旅游网站的开题报告成都网站建设方案托管
  • 网站制作成本百度竞价推广流程
  • 纪念币商城网站建设不属于网络推广方法
  • 企业微信营销系统辽宁seo推广
  • 宝鸡网站建设价格推广专员是做什么的
  • 网站上职业学校排名 该怎么做快速排名优化
  • 新网互联魔方手机网站建站系统自媒体账号申请
  • 昆山做网站的kamese站长之家域名查询
  • redhat7部署wordpress关键词搜索引擎优化推广
  • 网站建设开票税点郑州百度推广哪家好
  • 如何判断网站被google k西安seo整站优化
  • 深圳seo优化项目优化培训课程
  • 北京商场营业时间做优化关键词
  • 小网站发布要怎么做个人介绍网页制作
  • 网站如何做性能测试百度高级搜索引擎