当前位置: 首页 > news >正文

php做图片交互网站代码网站下要加个备案号 怎么做

php做图片交互网站代码,网站下要加个备案号 怎么做,logo成品效果图网站,职业学校网站模板文章目录 前言算法原理1. 从策略梯度到Actor-Critic2. Actor 和 Critic 的角色3. Critic 的学习方式:时序差分 (TD)4. Actor 的学习方式:策略梯度5. 算法流程代码实现1. 环境与工具函数2. 构建Actor-Critic智能体3. 组织训练流程4. 主程序:启动训练5. 实验结果总结前言 在深…

文章目录

  • 前言
  • 算法原理
    • 1. 从策略梯度到Actor-Critic
    • 2. Actor 和 Critic 的角色
    • 3. Critic 的学习方式:时序差分 (TD)
    • 4. Actor 的学习方式:策略梯度
    • 5. 算法流程
  • 代码实现
    • 1. 环境与工具函数
    • 2. 构建Actor-Critic智能体
    • 3. 组织训练流程
    • 4. 主程序:启动训练
    • 5. 实验结果
  • 总结


前言

在深度强化学习(DRL)的广阔天地中,算法可以大致分为两大家族:基于价值(Value-based)的算法和基于策略(Policy-based)的算法。像DQN这样的算法通过学习一个价值函数来间接指导策略,而像REINFORCE这样的算法则直接对策略进行参数化和优化。

然而,这两种方法各有优劣。基于价值的方法通常数据效率更高、更稳定,但难以处理连续动作空间;基于策略的方法可以直接处理各种动作空间,并能学习随机策略,但其学习过程往往伴随着高方差,导致训练不稳定、收敛缓慢。

为了融合两者的优点,Actor-Critic(演员-评论家) 框架应运而生。它构成了现代深度强化学习的基石,许多前沿算法(如A2C, A3C, DDPG, TRPO, PPO等)都属于这个大家族。

本文将从理论出发,结合一个完整的 PyTorch 代码实例,带您深入理解基础的 Actor-Critic 算法。我们将通过经典的 CartPole(车杆)环境,一步步构建、训练并评估一个 Actor-Critic 智能体,直观地感受它是如何工作的。

完整代码:下载链接

算法原理

Actor-Critic 算法本质上是一种基于策略的算法,其目标是优化一个带参数的策略。与REINFORCE算法不同的是,它会额外学习一个价值函数,用这个价值函数来“评论”策略的好坏,从而帮助策略函数更好地学习。

1. 从策略梯度到Actor-Critic

在策略梯度方法中,目标函数的梯度可以写成一个通用的形式:

g = E [ ∑ t = 0 T ψ t ∇ θ log ⁡ π θ ( a t ∣ s t ) ] g=\mathbb{E}\left[\sum_{t=0}^T\psi_t\nabla_\theta\log\pi_\theta(a_t|s_t)\right] g=E[t=0Tψtθlogπθ(atst)]

其中,ψt 是一个用于评估在状态 st 下采取动作 at 的优劣的标量。ψt 的选择直接影响了算法的性能:

在这里插入图片描述

  • 形式2ψt 是动作 at 之后的所有回报之和。这是 REINFORCE 算法使用的形式。它使用蒙特卡洛方法来估计动作的价值,虽然是无偏估计,但由于包含了从 t 时刻到回合结束的所有随机性,其方差非常大。
  • 形式6ψt时序差分误差(TD Error)。这是本文 Actor-Critic 算法将采用的核心形式。它只利用了一步的真实奖励 r_t 和对下一状态价值的估计 V(s_t+1),极大地降低了方差。

这个转变正是 Actor-Critic 算法的核心思想:不再使用完整的、高方差的轨迹回报,而是引入一个价值函数来提供更稳定、低方差的指导信号。

2. Actor 和 Critic 的角色

我们将 Actor-Critic 算法拆分为两个核心部分:

  • Actor (演员):即策略网络。它的任务是与环境进行交互,并根据 Critic 的“评价”来学习一个更好的策略。它决定了在某个状态下应该采取什么动作。
  • Critic (评论家):即价值网络。它的任务是通过观察 Actor 与环境的交互数据,学习一个价值函数。这个价值函数用于判断在当前状态下,Actor 选择的动作是“好”还是“坏”,从而指导 Actor 的策略更新。

3. Critic 的学习方式:时序差分 (TD)

Critic 的目标是准确地估计状态价值函数 V(s)。它采用**时序差分(Temporal-Difference, TD)**学习方法。具体来说,是TD(0)方法。

在TD学习中,我们希望价值网络的预测值 V(s_t) 能够逼近 TD目标 (TD Target),即 r_t + γV(s_t+1)。因此,Critic 的损失函数定义为两者之间的均方误差:

L ( ω ) = 1 2 ( r + γ V ω ( s t + 1 ) − V ω ( s t ) ) 2 \mathcal{L}(\omega)=\frac{1}{2}(r+\gamma V_\omega(s_{t+1})-V_\omega(s_t))^2 L(ω)=21(r+γVω(st+1)Vω(st))2

当我们对这个损失函数求梯度以更新 Critic 的网络参数 w 时,有一个非常关键的点:

在TD学习中,目标值 r_t + γV(s_t+1) 被视为一个固定的“标签”(Target),不参与反向传播。因此,梯度只对当前状态的值函数 V(s_t) 求导。

Critic 价值网络表示为 V w V_w Vw,参数为 w w w。价值函数的梯度为:
∇ ω L ( ω ) = − ( r + γ V ω ( s t + 1 ) − V ω ( s t ) ) ∇ ω V ω ( s t ) \nabla_\omega\mathcal{L}(\omega)=-(r+\gamma V_\omega(s_{t+1})-V_\omega(s_t))\nabla_\omega V_\omega(s_t) ωL(ω)=

http://www.dtcms.com/a/406513.html

相关文章:

  • 巴中商城网站建设wordpress 图书主题
  • 一键预约上门服务:到家洗车小程序的便捷功能与场景化体验
  • 第 3 篇:让图形动起来 - WebGL 2D 变换
  • 寝室快修|基于SprinBoot+vue的贵工程寝室快修小程序(源码+数据库+文档)
  • 青秀网站建设网站海外推广平台
  • 前端基础:从0到1实现简单网页效果(二)
  • 基于LazyLLM搭建AI创意文案生成器(多场景文案自动生成)
  • 数据链路层:网络通信的基础与桥梁
  • Keepalived两个集群实验
  • vs网站开发表格大小设置网站建设要注意一些什么
  • js网站模板下载做网站和app哪个难
  • MySQL多实例管理
  • 用dpdk实现udp、tcp数据包收发,tcp协议栈相关原理
  • 3D气象数据可视化:使用前端框架实现动态天气展示
  • 学习日记19:GRAPH-BERT
  • shell编程:sed - 流编辑器(5)
  • 网站制作地点中山网站建设公司哪家好
  • 关于【机器人小脑】的快速入门介绍
  • 无线收发模块保障砂芯库桁架机器人稳定无线通信实践
  • 北京有哪些网站建设国家企业信用信息系统(全国)
  • LabVIEW 动态信号分析
  • 腾讯云容器服务
  • 怎么做网站推广电话广西网站建设哪家有
  • 实战:基于 BRPC+Etcd 打造轻量级 RPC 服务——高级特性与生产环境深度实践
  • 蓝耘MaaS驱动PandaWiki:零基础搭建AI智能知识库完整指南
  • C语言,结构体
  • [创业之路-599]:193nm、266nm、355nm深紫外激光器的上下游产业链和相应的国产化公司
  • 安溪住房和城乡规划建设局网站wordpress+左侧菜单
  • Ubuntu 系统中防火墙
  • 摄像头-激光雷达在线标定相机脚本(ROS 版)