强化学习 (RL) 中的价值函数估计代理可以期望从给定状态开始实现的长期回报或累积奖励,遵循一定的策略。价值函数基于预期代理在未来获得的奖励来评估代理处于特定状态有多好。
价值函数至关重要,因为它可以帮助智能体预测哪些状态更有利,甚至在采取行动之前。有两种主要类型的值函数: 状态值函数 (V) 和动作值函数 (Q)。状态-值函数估计来自状态的预期累积奖励,而动作-值函数估计来自状态-动作对的预期累积奖励。
value函数指导代理选择导致高价值状态的操作。例如,在游戏中,价值函数可能会将较高的值分配给更接近获胜的状态,而将较低的值分配给代理有失败危险的状态。