我是靠谱客的博主 标致含羞草,最近开发中收集的这篇文章主要介绍强化学习入门(六):Q-learning系列算法3:连续动作(NAF)一、NAF算法,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

本文是在https://blog.csdn.net/acl_lihan/article/details/104076938的基础上进行了部分改动,加上了一点个人理解,原博客写的非常好,不妨一同查阅。

普通的Q-learning比policy gradient比较容易实现,但是在处理连续动作(比如方向盘要转动多少度)的时候就会显得比较吃力。

因为如果action是离散的几个动作,那就可以把这几个动作都代到Q-function去算Q-value。但是如果action是连续的,此时action就是一个vector,vector里面又都有对应的value,那就没办法穷举所有的action去算Q-value。

本文就介绍一个用来处理连续动作的算法Normalized Advantage Functions(NAF)
当然,最常见的处理方法还是不使用Q-learning而使用actor-critic

一、NAF算法

设计一个新的网络来解连续动作的最优化问题。

先给出概念如下,后面再讲具体的。

在这里插入图片描述 (公式3-1)

此时Q value 由状态值函数V与动作价值函数 A 相加而得。

在这里插入图片描述(公式3-2)

其中 x 表示状态State,u表示动作Action,θ 是对应的网络参数,A函数可以看成动作 u 在状态 x 下的优势。我们的目的就是要使网络输出的动作 u 所对应的Q值最大
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
下图为NAF执行过程(图参考自https://blog.csdn.net/u013236946/article/details/73243310)
在这里插入图片描述

参考:
https://blog.csdn.net/acl_lihan/article/details/104076938

最后

以上就是标致含羞草为你收集整理的强化学习入门(六):Q-learning系列算法3:连续动作(NAF)一、NAF算法的全部内容,希望文章能够帮你解决强化学习入门(六):Q-learning系列算法3:连续动作(NAF)一、NAF算法所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(68)

评论列表共有 0 条评论

立即
投稿
返回
顶部