当前位置: 首页 > wzjs >正文

在自己的网站上怎么做淘宝客做网站需要多少钱 都包括什么

在自己的网站上怎么做淘宝客,做网站需要多少钱 都包括什么,建网站公司 蓝纤科技,找别人做网站注意问题PPO(2017,OpenAI)核心改进点 Proximal Policy Optimization (PPO):一种基于信赖域优化的强化学习算法,旨在克服传统策略梯度方法在更新时不稳定的问题,采用简单易实现的目标函数来保证学习过程的稳定性 解决…

在这里插入图片描述

PPO(2017,OpenAI)核心改进点

Proximal Policy Optimization (PPO):一种基于信赖域优化的强化学习算法,旨在克服传统策略梯度方法在更新时不稳定的问题,采用简单易实现的目标函数来保证学习过程的稳定性

  • 解决问题:在强化学习中,直接优化策略会导致不稳定的训练,模型可能因为过大的参数更新而崩溃
  • model-free,off-policy,actor-critic
核心改进点说明
剪切目标函数使用剪切函数 clip 限制策略更新的幅度,避免策略大幅更新导致性能崩溃
off-policy每个采样数据可用于多轮更新,提升样本利用率,提高学习效率

PPO 网络更新

策略网络

PPO 使用旧策略和新策略的比值来定义目标函数,在保持改进的同时防止策略变化过大:

L C L I P ( θ ) = E t [ min ⁡ ( r t ( θ ) A t , clip ( r t ( θ ) , 1 − ϵ , 1 + ϵ ) A t ) ] , where  r t = π θ ( a t ∣ s t ) π θ old ( a t ∣ s t ) L^{CLIP}(\theta) = {\mathbb{E}}_t \left[ \min \left( r_t(\theta) {A}_t, \text{clip}(r_t(\theta), 1 - \epsilon, 1 + \epsilon) {A}_t \right) \right], \text{where } r_t = \frac{\pi_\theta(a_t|s_t)}{\pi_{\theta_\text{old}}(a_t|s_t)} LCLIP(θ)=Et[min(rt(θ)At,clip(rt(θ),1ϵ,1+ϵ)At)],where rt=πθold(atst)πθ(atst)

  • Advantage 优势函数 A t {A}_t At:如 Q ( s t , a t ) − V ( s t ) Q(s_t, a_t) - V(s_t) Q(st,at)V(st)
  • 剪切系数 ϵ \epsilon ϵ:如 0.2

价值网络

L V F ( θ μ ) = E t [ ( V θ μ ( s t ) − R t ) 2 ] L^{VF}(\theta^\mu) = \mathbb{E}_t \left[ (V_{\theta^\mu}(s_t) - R_t)^2 \right] LVF(θμ)=Et[(Vθμ(st)Rt)2]

  • 真实或估算的回报 R t R_t Rt:如 ∑ k = 0 n = γ k r t + k \sum^n_{k=0} = \gamma^k r_{t+k} k=0n=γkrt+k

总损失函数

PPO 的总损失是策略损失、值函数损失和熵正则项 (鼓励探索) 的加权和:

L ( θ ) = L C L I P ( θ ) − c 1 L V F ( θ μ ) + c 2 H ( π ( s t ) ) L(\theta) = L^{CLIP}(\theta) - c_1 L^{VF}(\theta^\mu) + c_2 H(\pi(s_t)) L(θ)=LCLIP(θ)c1LVF(θμ)+c2H(π(st))

  • c 1 , c 2 c_1, c_2 c1,c2:权重系数,常用 c 1 = 0.5 c_1=0.5 c1=0.5, c 2 = 0.01 c_2=0.01 c2=0.01

基于 stable_baselines3 的快速代码示例

import gymnasium as gym
from stable_baselines3 import PPO# 创建环境
env = gym.make("CartPole-v1")
env.reset(seed=0)# 初始化模型
model = PPO("MlpPolicy", env, verbose=1)# 训练模型
model.learn(total_timesteps=100_000)
model.save("ppo_cartpole_v1")# 测试模型
obs, _ = env.reset()
total_reward = 0
for _ in range(200):action, _ = model.predict(obs, deterministic=True) obs, reward, terminated, truncated, _ = env.step(action)total_reward += rewardif terminated or truncated:breakprint("Test total reward:", total_reward)

参考资料:PPO 详解

http://www.dtcms.com/wzjs/436059.html

相关文章:

  • 温州公司建设网站制作专门做网站的公司
  • 公司平台网站建设什么样的人适合做策划
  • 怎样做网站外部链接seo海外推广
  • wordpress 多语言切换搜狗搜索引擎优化
  • 如何设计营销 网站建设站长之家排行榜
  • 设计本官方网站广告我在百度下的订单如何查询
  • 南京建设网站报价上海seo优化服务公司
  • 厦门市建设工程质监站网站怎么建网站教程
  • 沧州商城网站开发设计seo是什么职业
  • 企业营销网站建设公司网络销售推广公司
  • 网站结构与导航设计电脑培训机构哪个好
  • 吴忠市利通区建设局网站推广普通话的意义30字
  • java做网站的要求做百度推广一个月多少钱
  • 网站的结构设计软文写作范文500字
  • 公司网站优点游戏推广话术
  • 网站建站是模版好还是设计好上海关键词优化外包
  • 网站自动弹窗代码b2b外链
  • 婚庆公司网站模板下载小红书sem是什么意思
  • 博客社区类网站模板下载宁波百度快照优化排名
  • 深圳大型论坛网站建设谷歌推广费用多少
  • 天津自己制作网站seo网络排名优化哪家好
  • 网站常用的蓝色谷歌独立站推广
  • 普通网站逻辑设计数据流图上海网站建设seo
  • 厦门市城市建设档案馆的网站成都本地推广平台
  • 武汉企业网站建设带来的好处seo策略是什么意思
  • 做海外市场什么网站推广外贸营销推广
  • 中国最好的网站建设公司嵌入式培训机构哪家好
  • 湖北响应式网站建设设计网盘资源
  • 上海做网站哪家公司成都百度seo公司
  • 网站备案信息变更网站关键词如何快速上首页