写点什么

强化学习从基础到进阶 - 常见问题和面试必知必答 [7]:深度确定性策略梯度 DDPG 算法、双延迟深度确定性策略梯度 TD3 算法详解

  • 2023-06-27
    浙江
  • 本文字数:1590 字

    阅读完需:约 5 分钟

强化学习从基础到进阶-常见问题和面试必知必答[7]:深度确定性策略梯度DDPG算法、双延迟深度确定性策略梯度TD3算法详解

强化学习从基础到进阶-常见问题和面试必知必答[7]:深度确定性策略梯度 DDPG 算法、双延迟深度确定性策略梯度 TD3 算法详解

1.核心词汇

深度确定性策略梯度(deep deterministic policy gradient,DDPG):在连续控制领域经典的强化学习算法,是深度 Q 网络在处定性”表示其输出的是一个确定的动作,可以用于连续动作环境;“策略梯度”代表的是它用到的是策略网络,并且每步都会更新一次,其是一个单步更新的策略网络。其与深度 Q 网络都有目标网络和经验回放的技巧,在经验回放部分是一致的,在目标网络的更新上有些许不同。

2.常见问题汇总

2.1 请解释随机性策略和确定性策略,两者有什么区别?

(1)对于随机性策略 ,我们输入某一个状态 ,采取某一个动作 的可能性并不是百分之百的,而是有一个概率的,就好像抽奖一样,根据概率随机抽取一个动作。


(2)对于确定性策略 ,其没有概率的影响。当神经网络的参数固定之后,输入同样的状态,必然输出同样的动作,这就是确定性策略。

2.2 对于连续动作的控制空间和离散动作的控制空间,如果我们都采取策略网络,应该分别如何操作?

首先需要说明的是,对于连续动作的控制空间,Q 学习、深度 Q 网络等算法是没有办法处理的,所以我们需要使用神经网络进行处理,因为其可以既输出概率值,也可以输出确定的策略


(1)要输出离散动作,最后输出的激活函数使用 Softmax 即可。其可以保证输出的是动作概率,而且所有的动作概率加和为 1。


(2)要输出连续的动作,可以在输出层中加一层 tanh 激活函数,其可以把输出限制到 。我们得到这个输出后,就可以根据实际动作的一个范围再做缩放,然后将其输出给环境。比如神经网络输出一个浮点数 2.8,经过 tanh 激活函数之后,它就可以被限制在 ,输出 0.99。假设小车的速度的动作范围是 ,那我们就按比例将之从 扩大到 ,0.99 乘 2,最终输出的就是 1.98,将其作为小车的速度或者推小车的力输出给环境。

3.面试必知必答

3.1 友善的面试官:请简述一下深度确定性策略梯度算法。

深度确定性策略梯度算法使用演员-评论员结构,但是输出的不是动作的概率,而是具体动作,其可以用于连续动作的预测。优化的目的是将深度 Q 网络扩展到连续的动作空间。另外,其含义如其名:


(1)深度是因为用了深度神经网络;


(2)确定性表示其输出的是一个确定的动作,可以用于连续动作的环境;


(3)策略梯度代表的是它用到的是策略网络。强化算法每个回合就会更新一次网络,但是深度确定性策略梯度算法每个步骤都会更新一次策略网络,它是一个单步更新的策略网络。

3.2 友善的面试官:请问深度确定性策略梯度算法是同策略算法还是异策略算法?请说明具体原因并分析。

异策略算法。(1)深度确定性策略梯度算法是优化的深度 Q 网络,其使用了经验回放,所以为异策略算法。(2)因为深度确定性策略梯度算法为了保证一定的探索,对输出动作加了一定的噪声,行为策略不再是优化的策略。

3.3 友善的面试官:你是否了解过分布的分布式深度确定性策略梯度算法(distributed distributional deep deterministic policy gradient,D4PG)呢?请描述一下吧。

分布的分布式深度确定性策略梯度算法(distributed distributional deep deterministic policy gradient,D4PG),相对于深度确定性策略梯度算法,其优化部分如下。


(1)分布式评论员:不再只估计 Q 值的期望值,而是估计期望 Q 值的分布,即将期望 Q 值作为一个随机变量来估计。


(2)步累计回报:计算时序差分误差时,D4PG 计算的是步的时序差分目标值而不仅仅只有一步,这样就可以考虑未来更多步骤的回报。


(3)多个分布式并行演员:D4PG 使用个独立的演员并行收集训练数据并存储到同一个回放缓冲区中。


(4)优先经验回放(prioritized experience replay,PER):使用一个非均匀概率从回放缓冲区中进行数据采样。


更多优质内容请关注公号:汀丶人工智能



发布于: 17 分钟前阅读数: 5
用户头像

本博客将不定期更新关于NLP等领域相关知识 2022-01-06 加入

本博客将不定期更新关于机器学习、强化学习、数据挖掘以及NLP等领域相关知识,以及分享自己学习到的知识技能,感谢大家关注!

评论

发布
暂无评论
强化学习从基础到进阶-常见问题和面试必知必答[7]:深度确定性策略梯度DDPG算法、双延迟深度确定性策略梯度TD3算法详解_人工智能_汀丶人工智能_InfoQ写作社区