强化学习中的动态规划 (DP) 涉及通过将强化学习问题分解为较小的子问题并迭代地解决它们来解决强化学习问题。DP方法,例如值迭代和策略迭代,需要知道环境的转移概率和奖励,这些通常存储在环境的模型中。
RL中的DP的目标是使用涉及递归更新的方法来计算最优值函数或策略。在值迭代中,例如,基于相邻状态的值来更新每个状态的值,并且重复该过程直到收敛。类似地,策略迭代在策略评估 (计算值函数) 和策略改进 (更新策略) 之间交替。
动态编程需要一个完整的环境模型,这限制了它在可能无法使用此类模型的实际问题中的适用性。它在小的、完全已知的环境中最有用。