强化学习中的策略梯度法是一种方法,其中代理直接学习策略,而不是学习值函数。该策略由给定状态下动作的概率分布表示,目标是找到该分布的参数以最大化预期奖励。
在策略梯度方法中,使用神经网络对策略进行参数化。代理人根据策略采取行动,并使用梯度上升计算预期收益相对于策略参数的梯度。梯度用于更新参数,随着时间的推移改进策略。策略梯度的一个关键方面是它们可以在具有连续动作空间的环境中使用,这与通常与离散动作一起工作的Q学习不同。
使用策略梯度的一种常见算法是加强算法,该算法根据情节的累积奖励对策略执行蒙特卡洛更新。策略梯度方法非常适合机器人等环境,其中动作空间可能很大且连续。