SARSA (状态-动作-奖励-状态-动作) 是一种策略上的强化学习算法,与Q学习一样,旨在学习最佳动作值函数Q(s,a)。但是,关键的区别在于SARSA根据在下一个状态中实际采取的动作而不是最佳的可能动作来更新q值。
SARSA的更新规则是: Q(s, a) ← Q(s, a) α * [R(s, a) γ * Q(s', a') - Q(s, a)] 其中: -s' 是下一个状态 -a' 是代理采取的下一步行动 (不一定是使q值最大化的行动) 这使得SARSA成为on-policy方法,因为它根据代理实际遵循的策略 (包括它选择的操作) 更新q值。
例如,如果代理在给定状态下选择非最佳动作,则SARSA将基于该动作而不是最佳动作来调整q值。