【强化学习】Deep Reinforcement Learning: A Survey综述学习
文章目录
- Deep Reinforcement Learning: A Survey
- RL 基础
- 1.MDP
- 2.Bellman Equations
- 3.On-Policy and Off-Policy Methods
- 4.蒙特卡罗(MC)、时序差分(TD)
- MC
- TD
- 5.Policy Gradient
- DL
- DRL
- Value-based RL
- 1.DQN
- 2.Prioritized Experience Replay
- 3.Dueling Network
- 4.Noisy Network
- 5.关键区别与对比
- Policy-based RL
- 1.Advantage Actor-Critic (A2C/A3C)
- 2.Deterministic Policy Gradient (DPG/DDPG)
- 3.算法对比与区别
- Maximum entropy-based DRL
- 最大熵强化学习(Maximum Entropy RL)的核心思想
- 参考
Deep Reinforcement Learning: A Survey
- 论文名称:Deep Reinforcement Learning: A Survey
- RL过程通常可以建模成MDP过程,
- 传统的 RL 算法只能解决具有低维状态和动作空间的任务。
- 更复杂、更接近真实世界情况的任务通常具有更高维的状态空间和连续动作空间,限制了 RL 的应用,从而引入DL(具有强大表征能力。
RL 基础
1.MDP
- 解决顺序决策问题
- MDP 基于以下假设。1. 环境是马尔可夫的,这意味着下一个时间步的状态仅由当前状态决定,独立于前一个状态。2. 环境是完全可观察的。
- MDP 表示为五元组 ( S , A , ρ , f , γ ) (S,A,ρ,f,γ) (S,A,ρ,f,γ),策略: π : S → A π:S → A π:S→A,通过交互获得的状态和动作轨迹表示为 τ : ( s 0 , a 0 , s 1 , a 1 , . . . , a t − 1 , s t ) τ:(s_0,a_0,s_1,a_1,...,a_{t−1},s_t) τ:(s0,a0,s1,a1,...,at−1,st)。
- ρ : S × A → R ρ:S × A → R ρ:S×A→R 是直接标量奖励。
- f : S × A × A → [ 0 , 1 ] f:S × A × A →[0,1] f:S×A×A→[0,1] 称为状态转换函数。 f ( s , a , s ′ ) = P ( s ′ ∣ s , a ) f(s,a,s^{'}) = P(s^{'}|s,a) f(s,a,s′)=P(s′∣s,a) 是执行作 a a a 后状态 s s s转换为 s ′ s^{'} s′ 的概率。
- γ ∈ [ 0 , 1 ] γ ∈ [0,1] γ∈[0,1] 是一个折扣因子,其目的是减少未来奖励对现在的影响。
- MDP 下的 RL 任务的目标是找到可以最大化累积奖励的轨迹,这表示为从时间 t 开始的所有衰减奖励的总和, G t = γ ∗ G t + 1 + R t + 1 G_t= \gamma*G_{t+1}+R_{t+1} Gt=γ∗Gt+1+Rt+1 G t = R t + 1 + γ R t + 2 + γ 2 R t + 3 + ⋯ = ∑ k = 0 ∞ γ k R t + k + 1 G_t=R_{t+1}+\gamma R_{t+2}+\gamma^2R_{t+3}+\cdots=\sum_{k=0}^\infty\gamma^kR_{t+k+1} Gt=Rt+1+γRt+2+γ2Rt+3+⋯=k=0∑∞γkRt+k+1其中 R i R_i Ri 是时间步 i 的即时奖励, G t G_t Gt 称为回报。
2.Bellman Equations
-
关于贝尔曼方程
贝尔曼方程,是以Richard Bellman命名的,表示动态规划问题中相邻状态关系的方程。某些决策问题可以按照时间或空间分成多个阶段,每个阶段做出决策从而使整个过程取得效果最优的多阶段决策问题,可以用动态规划方法求解。某一阶段最优决策的问题,通过贝尔曼方程转化为下一阶段最优决策的子问题,从而初始状态的最优决策可以由终状态的最优决策(一般易解)问题逐步迭代求解。存在某种形式的贝尔曼方程,是动态规划方法能得到最优解的必要条件。绝大多数可以用最优控制理论解决的问题,都可以通过构造合适的贝尔曼方程来求解。
[来源于: Bertsekas, D. P. (1976). Dynamic Programming and Stochastic Control. Academic Press, Inc.] -
符号
- V π ( s ) V_π ( s ) Vπ(s) :策略为 π \pi π的状态-值函数,即状态s下预计累计回报的期望值,满足: V π ( s ) = E [ G t ∣ S t = s ] V_\pi(s)=\mathbb{E}[G_t\vert S_t=s] Vπ(s)=E[Gt∣St=s]
- Q π ( s , a ) Q_\pi(s,a) Qπ(s,a):策略为 π \pi π的状态-动作值函数,即状态s下采取行动a预计累计回报的期望值,满足: Q π ( s , a ) = E [ G t ∣ S t = s , A t = a ] Q_\pi(s,a)=\mathbb{E}[G_t\vert S_t=s,A_t=a] Qπ(s,a)=E[Gt∣St=s,At=a]
- P s → s ′ a P_{s\rightarrow s'}^a Ps→s′a: p ( s ′ , r ∣ s , a ) p(s^{'},r|s,a) p(s′,r∣s,a),即采取行为a后状态 s s s转换到 s ′ s^{'} s′的概率。
- R s → s ′ a R_{s\rightarrow s'}^a Rs→s′a:采取行为a后状态 s s s转换到 s ′ s^{'} s′所获得的奖赏。
- π ( s , a ) \pi(s,a) π(s,a):状态s下根据策略 π \pi π采取行为a的概率。
-
状态值 - 动作值 V π ( s ) = ∑ a π ( a ∣ s ) Q π ( s , a ) V_\pi(s)=\sum_a\pi(a|s)Q_\pi(s,a) Vπ(s)=a∑π(a∣s)Qπ(s,a)
-
动作值 - 状态值 Q π ( s , a ) = ∑ s ′ ∈ S , r p ( s ′ , r ∣ s , a ) ( R s → s ′ a + γ V π ( s ′ ) ) Q_\pi(s,a)=\sum_{s^{\prime}\in\mathrm{S},r}p(s^{\prime},r|s,a)(\mathrm{R}_{\mathrm{s}\to\mathrm{s}^{\prime}}^\mathrm{a}+\gamma V_\pi(s^{\prime})) Qπ(s,a)=s′∈S,r∑p(s′,r∣s,a)(Rs→s′a+γVπ(s′))
-
状态值 – 下一状态值 V π ( s ) = ∑ a π ( a ∣ s ) Q π ( s , a ) = ∑ a π ( a ∣ s ) ∑ s ′ ∈ S , r p ( s ′ , r ∣ s , a ) ( R s → s ′ a + γ V π ( s ′ ) ) V_{\pi}(s)=\sum_a\pi(a|s)Q_\pi(s,a)=\sum_a\pi(a|s)\sum_{s^{\prime}\in\mathrm{S},r}p(s^{\prime},r|s,a)(\mathrm{R}_{\mathrm{s}\to\mathrm{s}^{\prime}}^\mathrm{a}+\gamma V_\pi(s^{\prime})) Vπ(s)=a∑π(a∣s)Qπ(s,a)=a∑π(a∣s)s′∈S,r∑p(s′,r∣s,a)(Rs→s′a+γVπ(s′))
-
详细证明状态-值函数可以表示成Bellman方程 V π ( s ) = E [ G t ∣ S t = s ] = E [ R t + 1 ∣ S t = s ] + γ E [ G t + 1 ∣ S t = s ] , = ∑ a π ( a ∣ s ) ∑ r p ( r ∣ s , a ) r ⏟ mean of immediate rewards + γ ∑ a π ( a ∣ s ) ∑ s ′ p ( s ′ ∣ s , a ) V π ( s ′ ) , ⏟ mean of future rewards = ∑ a π ( a ∣ s ) [ ∑ r p ( r ∣ s , a ) r + γ ∑ s ′ p ( s ′ ∣ s , a ) V π ( s ′ ) ] , ∀ s ∈ S = ∑ a π ( a ∣ s ) ∑ s ′ , r p ( s ′ , r ∣ s , a ) [ r + γ V π ( s ′ ) ] , ∀ s ∈ S . \begin{aligned} \mathrm{V}_{\pi}(\mathrm{s}) & =\mathbb{E}[\mathrm{G_t}|\mathrm{S_t}=\mathrm{s}]\\ & =\mathbb{E}[R_{t+1}|S_t=s]+\gamma\mathbb{E}[G_{t+1}|S_t=s], \\ & =\underbrace{\sum_a\pi(a|s)\sum_rp(r|s,a)r}_{\text{mean of immediate rewards}}+\underbrace{\gamma\sum_a\pi(a|s)\sum_{s^{\prime}}p(s^{\prime}|s,a)V_\pi(s^{\prime}),}_{\text{mean of future rewards}} \\ & =\sum_{a}\pi(a|s)\left[\sum_{r}p(r|s,a)r+\gamma\sum_{s^{^{\prime}}}p(s^{\prime}|s,a)V_{\pi}(s^{\prime})\right],\forall s\in\mathcal{S} \\ & =\sum_a\pi(a|s)\sum_{s^{\prime},r}p(s^{\prime},r|s,a)\left[r+\gamma V_\pi(s^{\prime})\right],\quad\forall s\in\mathcal{S}. \end{aligned} Vπ(s)=E[Gt∣St=s]=E[Rt+1∣St=s]+γE[Gt+1∣St=s],=mean of immediate rewards a∑π(a∣s)r∑p(r∣s,a)r+mean of future rewards γa∑π(a∣s)s′∑p(s′∣s,a)Vπ(s′),=a∑π(a∣s) r∑p(r∣s,a)r+γs′∑p(s′∣s,a)Vπ(s′) ,∀s∈S=a∑π(a∣s)s′,r∑p(s′,r∣s,a)[r+γVπ(s′)],∀s∈S.
-
最优策略
最优策略所对应的值函数 V ⋆ ( s ) V^\star(s) V⋆(s)称为最优值函数,由于最优值函数的累积奖赏值已达最大,因此可以对前面的Bellman方程做一个改动,将对动作的概率求和改为取最优: V ⋆ ( s ) = max a ∈ A Q π ⋆ ( s , a ) = max a ∈ A ∑ s ′ ∈ S P s → S ′ a ⋅ ( R s → s ′ a + γ V ⋆ ( s ′ ) ) \begin{aligned} \mathrm{V}^\star(\mathrm{s})& =\max_{\mathrm{a}\in\mathrm{A}}\mathrm{Q}_{\pi^\star}(\mathrm{s},\mathrm{a})\\& =\max_{\mathrm{a}\in\mathrm{A}}\sum_{\mathrm{s}^{\prime}\in\mathrm{S}}\mathrm{P}_{\mathrm{s}\to\mathrm{S}^{\prime}}^\mathrm{a}\cdot(\mathrm{R}_{\mathrm{s}\to\mathrm{s}^{\prime}}^\mathrm{a}+\gamma\mathrm{V}^\star(\mathrm{s}^{\prime})) \end{aligned} V⋆(s)=a∈AmaxQπ⋆(s,a)=a∈Amaxs′∈S∑Ps→S′a⋅(Rs→s′a+γV⋆(s′))可以得到最优状态-动作值函数为 Q ⋆ ( s , a ) = ∑ s ′ ∈ S P s → s ′ a ⋅ ( R s → s ′ a + γ max a ′ ∈ A Q ⋆ ( s ′ , a ′ ) ) \mathrm{Q^\star(s,a)=\sum_{s^{\prime}\in S}P_{s\to s^{\prime}}^a\cdot(R_{s\to s^{\prime}}^a+\gamma\max_{a^{\prime}\in A}Q^\star(s^{\prime},a^{\prime}))} Q⋆(s,a)=s′∈S∑Ps→s′a⋅(Rs→s′a+γa′∈AmaxQ⋆(s′,a′)) -
非最优策略 -> 最优策略 π ′ ( s ) = arg max a ∈ A Q π ( s , a ) \pi^{\prime}(\mathrm{s})=\arg\max_{\mathrm{a}\in\mathrm{A}}\mathrm{Q}_\pi(\mathrm{s},\mathrm{a}) π′(s)=arga∈AmaxQπ(s,a)
3.On-Policy and Off-Policy Methods
On-policy 和 off-policy 是指两种不同的训练方式,它们的主要区别在于行为策略和目标策略是否相同。行为策略是用于与环境交互以生成训练数据的策略。目标策略是我们希望代理学习的策略。
一个直观区别:
4.蒙特卡罗(MC)、时序差分(TD)
MC
通过采样来估计分布的一种算法。在一场游戏中,先让策略
π
\pi
π去和环境进行交互获取数据,看到状态s后计算整场游戏的累积奖赏G ,记录下这些数据后训练一个回归问题来拟合
V
π
(
s
)
V_\pi(s)
Vπ(s),公式逼近为:
V
π
(
s
t
)
←
V
π
(
s
t
)
+
α
(
G
t
−
V
π
(
s
t
)
)
\mathrm{V}_\pi(\mathrm{s_t})\leftarrow\mathrm{V}_\pi(\mathrm{s_t})+\alpha(\mathrm{G}_\mathrm{t}-\mathrm{V}_\pi(\mathrm{s_t}))
Vπ(st)←Vπ(st)+α(Gt−Vπ(st))这样的训练需要大量的采样,并且每次update都需要一整轮的累积奖赏
G
t
G_t
Gt
TD
对于TD算法,只需要记录每一步的即时奖励 r t r_t rt,通过神经网络直接训练 V π V_\pi Vπ函数,分别输入 s t s_t st和 s t + 1 s_{t+1} st+1,将两个结果相减,再将减后的结果与 r t r_t rt进行回归拟合,更新方式为: V ( s t ) = V ( s t ) + α ( R t + 1 + γ V ( s t + 1 ) − V ( s t ) ) V(s_t)=V(s_t)+\alpha(R_{t+1}+\gamma V(s_{t+1})-V(s_t)) V(st)=V(st)+α(Rt+1+γV(st+1)−V(st))
5.Policy Gradient
动态规划、MC 和 TD 方法都需要在使用之前计算出最优 Q 值来获得最优策略,称为基于值的方法。另一类可以直接优化策略的方法称为策略梯度方法。在策略梯度中,
π
θ
(
a
∣
s
)
=
P
(
a
∣
s
,
θ
)
\pi_{\theta}(a|s)=P(a|s,\theta)
πθ(a∣s)=P(a∣s,θ),目标函数是
J
(
θ
)
=
V
π
θ
(
s
)
=
E
π
θ
(
s
)
[
∑
a
Q
(
s
,
a
)
π
θ
(
a
∣
s
)
]
J(\theta)=V_{\pi_\theta}(s)=E_{\pi_\theta(s)}\left[\sum_aQ(s,a)\pi_\theta(a|s)\right]
J(θ)=Vπθ(s)=Eπθ(s)[a∑Q(s,a)πθ(a∣s)]目标是最大化这个目标函数,通过微分
∇
θ
J
(
θ
)
=
E
π
θ
(
s
)
[
∑
a
Q
(
s
,
a
)
∇
θ
π
θ
(
a
∣
s
)
]
θ
=
θ
+
α
∇
θ
J
\nabla_{\theta}J(\theta)=E_{\pi_{\theta}(s)}\left[\sum_{a}Q(s,a)\nabla_{\theta}\pi_{\theta}(a|s)\right]\\\theta=\theta+\alpha\nabla_{\theta}J
∇θJ(θ)=Eπθ(s)[a∑Q(s,a)∇θπθ(a∣s)]θ=θ+α∇θJ
当使用基于值的方法解决具有连续动作空间的任务时,动作空间必须首先离散化。离散化受到维数和步长的影响。通过策略梯度方法得到的最优策略是动作上的概率分配或概率密度函数,可以是连续的,也可以是离散的,避免了上述缺点。
DL
- MLP可以近似任何非线性函数。
- DRL 利用神经网络强大的表示能力来处理高维输入和近似值或策略,以解决状态空间过大和连续动作空间过大的 RL 问题。
DRL
Value-based RL
1.DQN
-
传统的 Q-learning 使用 TD 方法更新 Q 值并将其存储在 Q 表中,这对于大状态空间和动作空间的问题是不可行的
-
DQN 的隐藏层包括 3 个卷积层和一个全连接层,DQN 在时间步 t 的近似值为: y = R + γ max a Q ( s t + 1 , a ; θ − ) y=R+\gamma\max_{a}Q(s_{t+1},a;\theta^-) y=R+γamaxQ(st+1,a;θ−)其中 θ \theta θ代表深度 Q 网络的参数,并通过最小化近似值和实际Q值之间的 MSE 来更新。
-
目标Q值公式:
y j = { R j , if s j + 1 是终止状态 R j + γ max a Q ( s j + 1 , a ; θ − ) , otherwise y_j = \begin{cases} R_j, & \text{if } s_{j+1} \text{是终止状态} \\ R_j + \gamma \max_a Q(s_{j+1}, a; \theta^-), & \text{otherwise} \end{cases} yj={Rj,Rj+γmaxaQ(sj+1,a;θ−),if sj+1是终止状态otherwise -
损失函数:均方误差(MSE)
L ( θ ) = E ( s , a , r , s ′ ) ∼ D [ ( y j − Q ( s , a ; θ ) ) 2 ] L(\theta) = \mathbb{E}_{(s,a,r,s') \sim D} \left[ (y_j - Q(s,a;\theta))^2 \right] L(θ)=E(s,a,r,s′)∼D[(yj−Q(s,a;θ))2] -
增强探索能力:DQN 使用了 ϵ \epsilon ϵ− 贪婪方法,该方法以一定的概率执行随机作,并以剩余的概率 1 − ϵ \epsilon ϵ 执行最优作,这相当于在策略中添加了一定量的噪声。
-
Off-policy方法
2.Prioritized Experience Replay
核心思想:根据TD误差 (
δ
i
\delta_i
δi) 的优先级采样样本,加速重要样本的学习。
优先级定义:
δ
i
=
∣
R
+
γ
max
a
Q
(
s
′
,
a
;
θ
−
)
−
Q
(
s
,
a
;
θ
)
∣
\delta_i = |R + \gamma \max_a Q(s', a; \theta^-) - Q(s, a; \theta)|
δi=∣R+γamaxQ(s′,a;θ−)−Q(s,a;θ)∣
采样概率:
P
(
i
)
=
∣
δ
i
∣
α
∑
k
∣
δ
k
∣
α
P(i) = \frac{|\delta_i|^\alpha}{\sum_k |\delta_k|^\alpha}
P(i)=∑k∣δk∣α∣δi∣α
(其中
α
\alpha
α 控制优先级强度)
3.Dueling Network
架构改进:将Q网络分为两部分:
- 状态价值函数 ( V(s) ):衡量状态的好坏。
- 优势函数 ( A(s,a) ):衡量动作的相对优势。
组合公式:
Q ( s , a ) = V ( s ) + ( A ( s , a ) − 1 ∣ A ∣ ∑ a ′ A ( s , a ′ ) ) Q(s,a) = V(s) + \left( A(s,a) - \frac{1}{|A|} \sum_{a'} A(s,a') \right) Q(s,a)=V(s)+(A(s,a)−∣A∣1a′∑A(s,a′))
优点:在动作价值相近时更稳定。
4.Noisy Network
改进:在网络权重中加入参数化噪声,替代传统的 (\epsilon)-greedy探索。
公式:
y
=
R
+
γ
max
a
Q
(
s
j
+
1
,
a
,
ϵ
−
;
θ
−
,
δ
−
)
y = R + \gamma \max_a Q(s_{j+1}, a, \epsilon^-; \theta^-, \delta^-)
y=R+γamaxQ(sj+1,a,ϵ−;θ−,δ−)
(
ϵ
\epsilon
ϵ) 为噪声参数)
5.关键区别与对比
算法 | 核心改进 | 解决的核心问题 |
---|---|---|
DQN | 经验回放 + 目标网络 | 数据相关性与训练稳定性 |
DDQN | 解耦动作选择与评估 | Q值高估 |
Prioritized Replay | 按TD误差优先级采样 | 数据利用效率 |
Dueling Network | 分离V(s)和A(s,a) | 动作价值相近时的稳定性 |
Noisy Network | 参数化噪声探索 | 替代(\epsilon)-greedy |
Multistep Learning | 多步回报 | 平衡偏差与方差 |
Distributional DQN | 建模Q值分布 | 捕获回报不确定性 |
Policy-based RL
Policy-Based DRL方法直接优化策略(policy),而不是通过价值函数间接优化
策略梯度定理:
∇ θ J ( θ ) = E [ ∇ θ log π θ ( a ∣ s ) Q π ( s , a ) ] \nabla_\theta J(\theta) = \mathbb{E} \left[ \nabla_\theta \log \pi_\theta(a|s) Q^\pi(s,a) \right] ∇θJ(θ)=E[∇θlogπθ(a∣s)Qπ(s,a)]
通过采样估计梯度,无需环境模型。
1.Advantage Actor-Critic (A2C/A3C)
-
概念:
- Actor-Critic框架结合了策略梯度(Actor)和价值函数(Critic)的优点。
- A3C(Asynchronous Advantage Actor-Critic)通过多线程异步采样数据,加速训练;A2C是其同步版本,更适合GPU优化。
- 使用Advantage Function ( A(s,a) = Q(s,a) - V(s) ) 减少方差,平衡偏差与方差。
-
公式:
- 策略梯度更新:
∇ θ J ( θ ) = 1 T ∑ t ∇ θ log π θ ( a t ∣ s t ) A ( s t , a t ) + β ∇ θ H ( π θ ( s t ) ) \nabla_\theta J(\theta) = \frac{1}{T} \sum_t \nabla_\theta \log \pi_\theta(a_t|s_t) A(s_t,a_t) + \beta \nabla_\theta \mathcal{H}(\pi_\theta(s_t)) ∇θJ(θ)=T1t∑∇θlogπθ(at∣st)A(st,at)+β∇θH(πθ(st))- ( A ( s t , a t ) A(s_t,a_t) A(st,at)) 是优势函数, ( H ( \mathcal{H} (H) 是策略熵(鼓励探索)。
- 优势函数:
A ( s t , a t ) = ∑ i = 1 n γ i − 1 r t + i + γ n V ( s t + n ) − V ( s t ) A(s_t,a_t) = \sum_{i=1}^n \gamma^{i-1} r_{t+i} + \gamma^n V(s_{t+n}) - V(s_t) A(st,at)=i=1∑nγi−1rt+i+γnV(st+n)−V(st)
- 策略梯度更新:
-
特点:
- 异步训练(A3C)提升数据效率,但A2C更稳定。
- 优势函数替代纯回报,减少方差
2.Deterministic Policy Gradient (DPG/DDPG)
-
概念:
- 确定性策略 a = μ θ ( s ) a = \mu_\theta(s) a=μθ(s),适用于连续动作空间。
- DDPG(Deep DPG)结合DQN技术(经验回放、目标网络)。
-
公式:
- 策略梯度:
∇ θ J ( θ ) = E [ ∇ a Q ( s , a ) ∇ θ μ ( s ) ∣ a = μ ( s ) ] \nabla_\theta J(\theta) = \mathbb{E} \left[ \nabla_a Q(s,a) \nabla_\theta \mu(s) \big|_{a=\mu(s)} \right] ∇θJ(θ)=E[∇aQ(s,a)∇θμ(s) a=μ(s)] - 目标网络软更新:
θ ′ ← τ θ + ( 1 − τ ) θ ′ \theta' \leftarrow \tau \theta + (1-\tau) \theta' θ′←τθ+(1−τ)θ′- τ ≪ 1 \tau \ll 1 τ≪1(如0.001)。
- 策略梯度:
-
特点:
- 直接输出确定性动作,无需动作概率分布。
- 需要添加噪声(如Ornstein-Uhlenbeck噪声)探索。
3.算法对比与区别
算法 | 策略类型 | 核心改进 | 适用场景 |
---|---|---|---|
A3C/A2C | 随机策略 | 多线程异步采样,优势函数 | 离散/连续动作,高维状态 |
TRPO | 随机策略 | 信任区域约束,保证单调提升 | 连续动作,复杂任务 |
PPO | 随机策略 | 截断目标函数,简化TRPO | 通用任务,实现简单 |
DDPG | 确定性策略 | 结合DQN技术,直接优化策略 | 连续动作(如机器人控制) |
TD3 | 确定性策略 | 解决DDPG的高估问题 | 连续动作,需稳定训练 |
SAC | 随机策略 | 最大熵框架,自动调节探索 | 离线/在线,连续控制 |
Maximum entropy-based DRL
最大熵强化学习(Maximum Entropy RL)的核心思想
最大熵强化学习在传统RL目标(最大化累计奖励)的基础上,增加了一个熵(Entropy)最大化项,鼓励策略在追求高回报的同时保持随机性(即探索更多可能性)。其优化目标为: J ( π ) = ∑ t = 0 T E ( s t , a t ) ∼ ρ π [ r ( s t , a t ) + α H ( π ( ⋅ ∣ s t ) ) ] J(\pi) = \sum_{t=0}^{T} \mathbb{E}_{(s_t,a_t)\sim \rho_\pi} \left[ r(s_t, a_t) + \alpha \mathcal{H}(\pi(\cdot|s_t)) \right] J(π)=t=0∑TE(st,at)∼ρπ[r(st,at)+αH(π(⋅∣st))]
其中:
- H ( π ( ⋅ ∣ s t ) ) \mathcal{H}(\pi(\cdot|s_t)) H(π(⋅∣st)) 是策略 π \pi π 在状态 s t s_t st 下的熵,衡量动作分布的随机性。
- α \alpha α 是分布系数,平衡奖励最大化和熵最大化。
优势:
- 更强的探索能力:熵项鼓励策略尝试更多动作,避免陷入局部最优。
- 鲁棒性:在稀疏奖励或多模态奖励任务中表现更好。
- 适用于随机策略:直接优化随机策略,而非确定性策略。
参考
深度强化学习目录
强化学习笔记
贝尔曼方程(Bellman equation)- CSDN
贝尔曼方程(Bellman equation)- 知乎