强化学习中的蒙特卡罗 (MC) 学习是一种通过与环境相互作用后的平均回报 (或总回报) 来估计策略价值的方法。在MC学习中,代理与环境交互,记录状态、动作和奖励的序列,然后根据事件的实际回报更新价值估计。
蒙特卡罗方法在环境并非在每个步骤都完全可观察的问题中特别有用,因此,代理必须依靠完整的经验片段来进行更新。通过计算访问一个州或采取行动后收到的平均回报来执行学习。这使它成为一种无模型方法,因为它不需要任何环境模型。
例如,在棋盘游戏中,在完成游戏 (一集) 后,MC学习将计算所获得的总奖励,并根据结果调整状态的价值估计,而无需知道游戏的确切动态。