深度确定性策略梯度 (DDPG) 是一种非策略,无模型的强化学习算法,用于连续动作空间。DDPG结合了Q学习和策略梯度方法的优势,可以在具有连续动作空间的环境中学习确定性策略。它基于行动者-批评家体系结构,行动者学习政策,批评家对其进行评估。
DDPG使用深度神经网络 (通常是多层感知器) 来近似q值函数 (critic) 和策略函数 (actor)。它还采用经验回放来存储过去的经验,并在培训期间从中采样,这有助于稳定学习。此外,DDPG利用目标网络-用于计算目标q值并稳定训练过程的单独网络。
DDPG在机器人控制等任务中特别有效,其中动作空间是连续的 (例如,控制机器人手臂的关节),并且已成功用于OpenAI Gym和MuJoCo等环境。