基于Pytorch的强化学习(DQN)之 A2C with baseline

news/2025/2/11 20:46:33/

目录

1. 引言

2. 数学推导

3. 算法


1. 引言

我们上次介绍了利用到了baseline的一种算法:REINFORCE。现在我们来学习一下另一种利用到baseline的算法:Advantage Actor-Critic(A2C)

2. 数学推导

我们在Sarsa算法中推导出了这个公式 Q_{\pi}(s_t,a_t)=E_{S_{t+1},A_{t+1}}[R_t+\gamma Q_{\pi}(S_{t+1},A_{t+1})],我们分部期望 Q_{\pi}(s_t,a_t)=E_{S_{t+1}}[E_{A_{t+1}}[R_t+\gamma Q_{\pi}(S_{t+1},A_{t+1})]]=E_{S_{t+1}}[R_t+\gamma V_{\pi}(S_{t+1})]

两边对 A_t 求期望 V_{\pi}(s_{t})=E_{A_t}[E_{S_{t+1}}[R_t+\gamma V_{\pi}(S_{t+1})]]=E_{A_t,S_{t+1}}[R_t+\gamma V_{\pi}(S_{t+1})]

我们便得到了关于状态价值函数的递推关系式  V_{\pi}(s_{t})=E_{A_t,S_{t+1}}[R_t+\gamma V_{\pi}(S_{t+1})]

使用蒙特卡罗算法近似右侧期望 r_t+\gamma V_{\pi}(s_{t+1})\approx E_{A_t,S_{t+1}}[R_t+\gamma V_{\pi}(S_{t+1})],我们得到

V_{\pi}(s_t)\approx r_t+\gamma V_{\pi}(s_{t+1}) 又由 Q_{\pi}(s_t,a_t)=E_{S_{t+1}}[R_t+\gamma V_{\pi}(S_{t+1})],也是使用蒙特卡罗算法,我们得到 Q_{\pi}(s_t,a_t)\approx r_t+\gamma V_{\pi}(s_{t+1}),总结一下,现在我们得到两个近似公式,分别记为公式1和公式2。

  1. Q_{\pi}(s_t,a_t)\approx r_t+\gamma V_{\pi}(s_{t+1})
  2. V_{\pi}(s_t)\approx r_t+\gamma V_{\pi}(s_{t+1})

它们在后面各有用处。

在REINRORCE中我们推导出了随机梯度的表达式 g(a_t)=\frac{\partial \,\ln{\pi}(a_t|s_t;\theta)}{\partial \,\theta}(Q_{\pi}(s_t,a_t)- V_{\pi}(s_t))我们用它来更新策略函数,这里的 Q_{\pi}(s_t,a_t)- V_{\pi}(s_t) 就是我们之前在Dueling Network讲过的优势函数,这便是Advantage的来源。现在需要解决 Q_{\pi}(s_t,a_t) 和 V_{\pi}(s_t) 两个未知量的近似,由公式1,我们解决了 Q_{\pi}(s_t,a_t) 的近似问题,对于 V_{\pi}(s_t) 我们使用神经网络 v(s;w)来近似它,于是我们得到

g(a_t)\approx \frac{\partial \,\ln{\pi}(a_t|s_t;\theta)}{\partial \,\theta}(r_t+\gamma v(s_{t+1};w)- v(s_t;w)),由于 r_t+\gamma v(s_{t+1;w})含有更多的真实信息,我们将其作为TD target 使 v(s_t;w)\rightarrow r_t+\gamma v(s_{t+1};w) 来优化价值函数的参数。

3. 算法

A2C算法本质上还是一种Actor-Critic方法,所以还是分为两个神经网络进行训练,一个是策略网络(Actor),另一个是价值网络(Critic)

  1. 观测到一个transition (s_t,a_t,r_t,s_{t+1}) 
  2. 计算TD target  y_t=r_t+\gamma v(s_{t+1};w) 
  3. 计算TD error  \delta_t=v(s_t;w)-y_t 
  4. 通过梯度上升 \theta\leftarrow \theta-\beta\,\delta_t\frac{\partial \,\ln{\pi}(a_t|s_t;\theta)}{\partial \,\theta} 更新策略网络
  5. 通过梯度下降 w\leftarrow w-\alpha\delta_t\,\frac{\partial \,v(s_t;w)}{\partial \,w} 更新价值网络

http://www.ppmy.cn/news/880860.html

相关文章

算法学习(十七)——A2C和PPO

个人理解: ACadvantage A2C A2C重要性采样TD(n) PPO A2C: 所谓A2C就是在AC的基础上加了一个Advantage,公式有如下改进: 但是Q可以由V计算而来,因此转变位: 目的在于:给Q值增加一个基线&am…

强化学习之policy-based方法A2C实现(PyTorch)

A2C:Advantage Actor Critic算法 policy gradient结合MC的思想就是REFORCEMENT算法,采用回合更新策略网络。如果对这个感兴趣的,可以看我的另一篇https://blog.csdn.net/MR_kdcon/article/details/111767945。 REFORCEMENT缺陷就是&#xff…

Stable Baselines/RL算法/A2C

Stable Baselines官方文档中文版 Github CSDN 尝试翻译官方文档,水平有限,如有错误万望指正 Asynchronous Advantage Actor Critic (A3C)的同步、确定性变体。它使用多个workers来避免使用重播缓存。 要点核心 原始文献: https://arxiv.org/a…

强化学习-A2C

关于A2C的介绍可以参考书本158页 流程图 此处参考强化学习–从DQN到PPO, 流程详解 图片来源于博客强化学习之policy-based方法A2C实现(PyTorch) 代码实现 代码参考Actor-Critic-pytorch import gym, os from itertools import count impo…

REINFORCE和A2C的异同

两者的神经网络结构一模一样,都是分为两个网络,即策略神经网络和价值神经网络。但是两者的区别在于价值神经网络的作用不同,A2C中的可以评价当前状态的好坏,而REINFORCE中的只是作为一个Baseline而已,唯一作用就是降低…

Actor-Critic(A2C)算法 原理讲解+pytorch程序实现

文章目录 1 前言2 算法简介3 原理推导4 程序实现5 优缺点分析6 使用经验7 总结 1 前言 强化学习在人工智能领域中具有广泛的应用,它可以通过与环境互动来学习如何做出最佳决策。本文将介绍一种常用的强化学习算法:Actor-Critic并且附上基于pytorch实现的…

A2C算法原理及代码实现

本文主要参考王树森老师的强化学习课程 1.A2C算法原理 A2C算法是策略学习中比较经典的一个算法,是在 Barto 等人1983年提出的。我们知道策略梯度方法用策略梯度更新策略网络参数 θ,从而增大目标函数,即下面的随机梯度: Actor-C…

强化学习算法A2C(Advantage Actor-Critic)和A3C(Asynchronous Advantage Actor-Critic)算法详解以及A2C的Pytorch实现

一、策略梯度算法回顾 策略梯度(Policy Gradient)算法目标函数的梯度更新公式为: ▽ R ˉ θ 1 N ∑ n 1 N ∑ t 1 T n ( ∑ t ′ t T n γ t ′ − t r t ′ n − b ) ▽ l o g p θ ( a t n ∣ s t n ) (1) \bigtriangledown \bar{R}…