We introduce a class of variational actor-critic algorithms based on a variational formulation over both the value function and the policy. The objective function of the variational formulation consists of two parts: one for maximizing the value function and the other for minimizing the Bellman residual. Besides the vanilla gradient descent with both the value function and the policy updates, we propose two variants, the clipping method and the flipping method, in order to speed up the convergence. We also prove that, when the prefactor of the Bellman residual is sufficiently large, the fixed point of the algorithm is close to the optimal policy.


翻译:我们引入了一类基于价值函数和政策的变式配方的变式行为者-批评算法。变式配方的客观功能由两部分组成:一是价值函数最大化,另一是尽量减少贝尔曼残余物。除了具有价值函数和政策更新的香草梯度下降外,我们还提出了两种变式,即剪裁法和翻转法,以加快趋同速度。我们还证明,当贝尔曼残余物的预产物足够大时,算法的固定点接近最佳政策。

0
下载
关闭预览

相关内容

专知会员服务
25+阅读 · 2021年6月15日
深度强化学习策略梯度教程,53页ppt
专知会员服务
184+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
已删除
将门创投
4+阅读 · 2019年5月8日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年10月5日
Arxiv
2+阅读 · 2021年10月4日
Arxiv
1+阅读 · 2021年10月1日
Arxiv
6+阅读 · 2021年6月24日
VIP会员
相关VIP内容
专知会员服务
25+阅读 · 2021年6月15日
深度强化学习策略梯度教程,53页ppt
专知会员服务
184+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
相关资讯
已删除
将门创投
4+阅读 · 2019年5月8日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
相关论文
Arxiv
0+阅读 · 2021年10月5日
Arxiv
2+阅读 · 2021年10月4日
Arxiv
1+阅读 · 2021年10月1日
Arxiv
6+阅读 · 2021年6月24日
Top
微信扫码咨询专知VIP会员