当智能体需要保持过去状态或动作的记忆以做出决策时,递归神经网络 (rnn) 在强化学习中起着重要作用。与传统的前馈神经网络不同,rnn具有内部循环,允许它们保留有关先前时间步长的信息。这使得rnn适用于当前决策不仅取决于当前状态而且还取决于过去状态或动作的顺序的环境 (例如,部分可观察的环境)。
在强化学习中,rnn可用于在状态部分可观察的环境中 (例如,在具有隐藏信息的游戏中或在具有噪声传感器的现实世界机器人中) 近似策略或价值函数。例如,在部分可观察的马尔可夫决策过程 (pomdp) 中,rnn可以帮助代理记住情节早期的关键信息。
Rnn,特别是长短期记忆 (LSTM) 网络,通常用于时间依赖性对于准确预测未来状态或行为至关重要的情况。