当前位置: 首页 > news >正文

再读强化学习24March

书还是得读,常读常新,螺旋式上升。

强化学习的本质是通过试错调整行为获得最大化的奖励。这句话太抽象太泛了,或许也可以理解为如何找到一个最优(多快好省)的方法去实现我们的目的(最大化奖励)。

比较朴素的想法就是干中学,把能做的先全试一遍,发现哪个方法好使就用哪个,同时我们也会尝试新鲜方法看是不是更好,这个思路类似e-greedy和ucb(upper confidence bound)算法,通过不断尝试得到每个方法对实现最终目的有多大帮助。

但是遇到复杂的问题这些算法就有些局限了,比如我们想要得到世俗意义上的成功,这是一个长时间规划的问题,为了实现这个目的,我们需要选择一条最优路径。为了实现这个目的,我们需要决定每个人生阶段需要达到的最佳目标:重点高中->重点大学->头部公司->高职级->事业有成,一一实现达到事业有成的目标。这种思路类似动态规划,将一个大问题分解多个子问题,假设所有局部阶段达到最优结果就可以保证最终结果是最优的。那么我们如何把这个过程具体化,如何决策/选择,在强化学习中就是把动态规划这个方法论数学化,落实到一个具体的形式,这个形式就是bellman equation(贝尔曼方程)。同时这个方法是基于markov property(马尔科夫性质):下一个状态只取决于当前的状态。这个假设很好理解,我们现在的状态是过往所有的状态叠加的结果,就像找工作时候简历没必要写全自己过往十几年的经历。贝尔曼方程是针对于MRP(马尔科夫奖励过程),从一个状态转移到下一个状态是固定的,比如我们进入重点高中进入重点大学的概率是100%,不考虑动作action(人为)。但是这是不可能的,于是为了更加贴近真实,引入了动作action,即使进入了普通高中,通过选择努力学习这个动作也有很大概率进入重点大学,这样MRP就变成了MDP(马尔科夫决策过程),这个时候就出现了如何选择动作的问题,选择一个最有效的action进入到下一个最优的state,这时候贝尔曼方程就进一步引入动作概率并泛化为贝尔曼期望方程,最优的策略可以隐式(implicitly)表达为贝尔曼最优方程。

但是动态规划是有一个假设,假设我们已知全部的状态转移函数和对应奖励。类似于经验丰富的长辈为我们规划最好的人生轨迹。但是人生是旷野,也不是每个人都有丰富人生阅历的长辈,这个时候状态转移函数和对应奖励是很难量化/显示表达。这种时候我们就需要时序差分算法了,也就从model-based RL进入了model-free RL。

相关文章:

  • 深入解析Linux网络、安全与容器技术
  • 动态规划(01背包恰好装满型详解):和为目标值的最长子序列长度
  • An Easy Problem(信息学奥赛一本通-1223)
  • 第2.2节:运行AWK脚本方式
  • overleaf中会议参考文献使用什么标签:inproceedings
  • 脚对齐调研学习笔记
  • 【多线程】synchronized底层实现的方式
  • GPU 模型部署实战以 Llama3 70B、Qwen 与 DeepSeek 为例
  • 算法方法快速回顾
  • mysql入门操作
  • 交易在规则框架下运作,反而能强化自身纪律
  • JavaScript 在 Chrome 中运行详解
  • Buildroot 增加系统启动项并解决后台无法获取输入(串口)
  • PV操作指南
  • 【漏洞复现】Next.js中间件权限绕过漏洞 CVE-2025-29927
  • 穿越之程序员周树人的狂人日记Part7__教育战争2.0
  • C语言 —— 此去经年梦浪荡魂音 - 深入理解指针(卷四)
  • C++类与对象的第一个简单的实战练习-3.24笔记
  • 洛谷题单入门4-P5729 【深基5.例7】工艺品制作-python
  • 一文了解Gradle 依赖管理(五)- 依赖管理缓存依赖
  • 观众走入剧院空间,人艺之友一起“再造时光”
  • 西藏日喀则市拉孜县发生5.5级地震,震感明显部分人被晃醒
  • 泽连斯基表示将在土耳其“等候”普京
  • 高培勇:中国资本市场的发展应将预期因素全面纳入分析和监测体系
  • 湖北宜昌:在青山绿水间解锁乡村振兴“密码”
  • 面对非专业人士,科学家该如何提供建议