当前位置: 首页 > news >正文

建设机械网站案例分析福建seo外包

建设机械网站案例分析,福建seo外包,潍坊网站制作报价,宁国网站开发转载文章,学习一下强化学习. 天下苦深度强化学习久矣,这有一份训练与调参技巧手册 https://geek.csdn.net/65d5ab8ab8e5f01e1e460619.html ©作者 | 申岳 单位 | 北京邮电大学 研究方向 | 机器人学习 使用RL的建议 太长不看版 学习 RL 和 Stabl…

转载文章,学习一下强化学习.

天下苦深度强化学习久矣,这有一份训练与调参技巧手册

https://geek.csdn.net/65d5ab8ab8e5f01e1e460619.html
©作者 | 申岳
单位 | 北京邮电大学
研究方向 | 机器人学习

使用RL的建议

太长不看版

  1. 学习 RL 和 Stable Baselines3
  2. 如有必要,进行定量的实验和超参数调整
  3. 使用单独的测试环境评估效果(记得要检查 wrappers!)
  4. 想要更好的效果,就增加训练预算

目前RL的局限

  1. Sample Inefficient:Model-free RL 算法通常需要大量样本(有时需要上百万次交互)才能学到有用的信息。
  2. 对超参数和随机种子敏感:RL 的结果可能因超参数或随机种子的不同而变化。
  3. Reward Function Design:设计良好的奖励函数需要专业知识和多次迭代。

如何评估RL算法?

  • 使用独立的测试环境评估算法,建议每交互 N 次后测试 n 个 episodes,取平均值作为单个 episode 的 reward。
  • 在测试时,对于 A2C、PPO 等算法,调用 .predict() 时应设置 deterministic=True
  • 查看 training curve 是一种不错的方式,但可能会低估 agent 的真实表现。

我该使用哪种算法?

  • 离散动作空间:DQN
  • 连续动作空间:SAC
  • 扩展版本:DQN 的连续版本 NAF,SAC 的离散版本 SAC-Discrete
  • 并行训练:A2C 和 PPO 适合并行训练,可参考 Vectorized Environment。

创建自定义环境的Tips和Tricks

  • Normalization:尽量对 observation space 和 action space 进行归一化。
  • Reward Shaping:从 shaped reward 开始,简化问题。
  • 测试环境:使用随机动作测试环境是否正常。

示例代码:检查自定义环境是否正常

from stable_baselines3.common.env_checker import check_envenv = CustomEnv(arg1, ...)
check_env(env)  # 检查自定义环境并输出警告

示例代码:使用随机动作测试环境

env = YourEnv()
obs = env.reset()
n_steps = 10
for _ in range(n_steps):action = env.action_space.sample()obs, reward, done, info = env.step(action)if done:obs = env.reset()

实现RL算法的Tips和Tricks

  • 步骤
    1. 多次阅读原始论文。
    2. 查看现有实现。
    3. 在简单环境中测试算法。
    4. 在更复杂的环境中运行算法,并进行调参。

个人心得

  • Normalization:对于机械臂的末端位置,建议使用相对工具系的归一化,增强泛化能力。
  • Reward Engineering:先进行 reward shaping,再考虑 sparse reward。
  • 网络结构:向量输入时,通常 2~3 层隐藏层(每层 128 或 256 节点)即可。

其他资源

  • 深度强化学习调参技巧:知乎专栏
  • 深度强化学习落地指南:知乎专栏
  • 知乎问题:深度学习调参有哪些技巧?
  • **原文参考 **: 知乎

参考文献

  1. Stable Baselines3 文档
  2. RL Tips and Tricks
  3. RL 教程
  4. RL 教程代码
  5. RL Zoo
  6. RL 的困难
  7. ANYmal 机器人
  8. Deep Mimic
  9. Evaluation 模块
  10. Callbacks 模块
  11. Deep Reinforcement Learning that Matters
  12. Cédric Colas 的博客
  13. Stable Baselines Issues
  14. NAF 算法
  15. SAC-Discrete 算法
  16. Vectorized Environment
  17. Ape-X 算法
  18. Stable Baselines3 Pull Request
  19. RL 算法指南
  20. HER 算法
  21. 自定义环境指南
  22. Colab Notebook 示例
  23. Stable Baselines Issues
  24. Stable Baselines Issues
  25. RL 研究的 Nuts and Bolts
  26. RL 研究视频
  27. Spinning Up
  28. 机械臂环境
  29. Spinning Up 代码

缘起

随着这波人工智能浪潮的兴起,强化学习(Reinforcement Learning,RL)这坛陈年老酒也借势找到了深度学习这个新瓶子,重新吸引了学术界、工业界乃至吃瓜群众的注意力。对于很多人来说,AI闯入他们视野的标志性事件不是2012年AlexNet的横空出世,而是AlphaGo击败李世石引起的轩然大波。可以这样说,深度强化学习(DRL)不仅点燃了世人对AI的热情,而随着CV方向性能瓶颈的出现,作为一个缺点多多、槽点满满的算法框架,DRL正在吸引越来越多的学者前来填坑,从各大AI顶会RL方向文章数量的逐年上升可见一斑。

算法工作者的“知行合一”

如今网上关于DRL的科普文可谓汗牛充栋,图文与公式并茂,paper与代码齐飞。我自知水平有限,无意在DRL科普界班门弄斧。另一方面我认为算法工作者不应只局限在原理层面,看懂很多公式不代表拥有动手能力;也不应满足于跑通toy tasks的demo,知其然不知其所以然,面对实际问题时可能依旧一头雾水。算法工作者的“知行合一”,需要经历从抽象算法原理到广泛动手实践再上升到统一方法论这三个必要阶段,唯有如此才算真正掌握了知识。

http://www.dtcms.com/a/420703.html

相关文章:

  • AI任务相关解决方案19-一种基于多技术融合的智能医学外科决策与执行系统,外科Agent在胆囊切除术
  • 淘宝做seo要建网站吗dede网站搬家更换空间重新安装
  • SpringAop的快速入门
  • 检测网站访问量电脑做网站用word
  • 怎么建网站青州问枫上海建设银行长宁区各分行网站
  • 自建网站怎么做后台管理系统开发手机软件
  • 网站推广的途径网站维护与建设ppt
  • 网站推广方案注意事项制作视频的软件手机
  • 网站制作上网做带字头像的网站
  • 重庆做蔬菜配送的网站有哪些城市建设游戏模拟网站
  • 化妆品销售网站的源代码前端网站论文
  • 怎么做简单地网站电子商务网站管理系统完美版
  • YOLOv8训练过程中参数的设置
  • 有哪些网站可以做青旅义工wordpress数据表格
  • 做内贸要在哪个网站找客户asp网站开发报告
  • 每日前端宝藏库 | Tippy.js ✨
  • MariaDB 数据库管理指南
  • 桂林企业网站建设珠海网站制作推广公司哪家好
  • Windows 命令提示符键盘快捷键
  • 爱站seo排名可以做哪些网站网页设计师的认识
  • UI自动化框架之Selenium简介(一)
  • 做家装壁纸的网站企业名称注册查询官网入口
  • 站长做什么网站赚钱网络优化网站 site
  • 个人网站建设架构手机网站建设的行情
  • 网站建设运营费用预算承德网站建设咨询
  • 建网站要使用哪些软件南京宜电的网站谁做的
  • 手机网站app生成360建筑网会员
  • dw 做网站的思路网站优化 网站建设公司
  • 网站记录ip 修改济宁市建设工程质量监督站网站
  • 建筑图纸网站黑帽seo优化软件