当前位置: 首页 > news >正文

强化学习【chapter0】-学习路线图

前言:

      主要总结一下西湖大学赵老师的课程

    【强化学习的数学原理】课程:从零开始到透彻理解(完结)_哔哩哔哩_bilibili

1️⃣ 基础阶段(Ch1-Ch7):掌握表格型算法,理解TD误差与贝尔曼方程
2️⃣ 进阶阶段(Ch8-Ch9):动手实现DQN/策略梯度,熟悉PyTorch/TensorFlow
3️⃣ 前沿阶段(Ch10:          阅读论文(OpenAI Spinning Up / RLlib文档)


Chapter 1:基础概念【Basic Concepts

学习内容:核心术语与问题定义
知识点

  • State(状态)、Action(动作)、Reward(奖励)

  • Return(回报)、Episode(回合)、Policy(策略)、Env(环境)

  • 经典示例:网格世界(Grid-World)


Chapter 2:状态值-贝尔曼方程【   State Values and Bellman Equation

学习内容:强化学习的数学框架
知识点

  • 马尔可夫性质、状态转移矩阵

  • 折扣因子(γ)、贝尔曼方程

  • 最优策略的存在性证明


Chapter 3:最优状态值和最优贝尔曼方程( Optimal State Values and Bellaman Optimality Equation】

学习内容:基于模型的基础算法
知识点

  • 策略评估(Policy Evaluation)

  • 策略改进定理(Policy Improvement Theorem)


Chapter 4:经典规划算法【 Value Iteration and Policy Iteration

学习内容:求解最优策略的三大方法
知识点

  1. 值迭代(Value Iteration):迭代更新价值函数

  2. 策略迭代(Policy Iteration):策略评估+策略改进

  3. 截断策略迭代(Truncated PI):效率优化版

  • ⚠️ 依赖环境模型(需已知状态转移概率)


Chapter 5:蒙特卡洛方法【  Monte Carlo Methods

学习内容:无模型学习入门
知识点

  • 基于回合的奖励采样

  • 首次访问与每次访问MC

  • ε-贪婪策略探索


Chapter 6:【Stochastic Approximation

学习内容:在线增量学习
知识点

  • TD(0) 算法:V(s) ← V(s) + α[r + γV(s') - V(s)]

  • 偏差-方差权衡(对比MC)


Chapter 7:表格型TD算法【Temporal-Differece Methods

学习内容:经典无模型控制
知识点

  1. SARSA:On-policy TD控制,更新Q(s,a)

  2. Q-Learning:Off-policy TD控制,更新最优动作值

  • ✅ 关键区分

    • On-policy(行为策略=目标策略)

    • Off-policy(行为策略≠目标策略,如Q-learning)


Chapter 8:函数逼近与非表格方法【 Value Function Methods

学习内容:处理高维状态空间
知识点

  1. 值函数逼近(VFA)min J(w) = E[(v(S) - v̂(S,w))^2]

  2. SARSA with VFA

  3. Q-learning with VFA

  4. Deep Q-Network (DQN)

    • 经验回放(Experience Replay)

    • 目标网络(Target Network)

  • 💡 意义:神经网络引入使RL适用于真实场景


Chapter 9:策略梯度方法【 Policy Gradient Methods

学习内容:从值函数到策略优化
知识点

  • 策略参数化:π(a|s; θ)

  • REINFORCE算法:蒙特卡洛策略梯度

  • Actor-Critic框架:结合值函数与策略


Chapter 10:高级深度强化学习【Actor-Critic Methods

学习内容:混合方法与前沿技术
知识点

  • A3C:异步并行Actor-Critic

  • PPO:近端策略优化(约束策略更新)

  • SAC:柔性Actor-Critic(熵正则化)

  • 多智能体RL:竞争与合作场景

http://www.dtcms.com/a/264270.html

相关文章:

  • Java Selenium反爬虫技术方案
  • 07 Springboot+netty+mqtt服务端实现【重构】
  • 数据结构之带头双向循环链表
  • 苍穹外卖系列问题之Day11_05营业额统计代码开发2 StringUtils.join(dateList,“,“)报错
  • Cross-modal Information Flow in Multimodal Large Language Models
  • 【1.6 漫画数据库设计实战 - 从零开始设计高性能数据库】
  • 2025年主流大厂Java后端面试题主题深度解析
  • 推客系统小程序终极指南:从0到1构建自动裂变增长引擎,实现业绩10倍增长!
  • 快速手搓一个MCP服务指南(九): FastMCP 服务器组合技术:构建模块化AI应用的终极方案
  • 【大模型学习 | BLIP2原理】
  • 「Java流程控制」for循环结构
  • langchain从入门到精通(三十二)——RAG优化策略(八)自查询检索器实现动态数据过滤
  • 腾讯 iOA 零信任产品:安全远程访问的革新者
  • Redis-渐进式遍历
  • Java后端调用外部接口标准流程详解
  • python+uniapp基于微信小程序的PS社区系统
  • 使用D435i运行ORB-SLAM3时,纯视觉模式与视觉-惯性模式的位姿矩阵定义问题探讨
  • 基于SpringBoot + HTML 的网上书店系统
  • 转录组分析流程(六):列线图
  • Kafka 生产者和消费者高级用法
  • c++学习(八、函数指针和线程)
  • EasyExcel实现Excel复杂格式导出:合并单元格与样式设置实战
  • web开发,旅游景点管理系统推荐算法版本demo,基于asp.net,mvc,c#,sql server
  • 编写shell脚本扫描工具,扫描服务器开放了哪些端口(再尝试用python编写一个)
  • Set和Map的解析与应用场景
  • OSPF虚拟链路术语一览:快速掌握网络路由
  • 【字符串方法】split使用介绍
  • Android NDK探索之旅(一)
  • 中心效应:多中心临床试验的关键考量
  • 【科研绘图系列】基于R语言的复杂热图绘制教程:环境因素与染色体效应的可视化