1.3_强化学习框架

RL 过程

为了理解 RL 过程,让我们想象一个智能体在玩平台游戏:

https://huggingface.co/datasets/huggingface-deep-rl-course/course-images/resolve/main/en/unit1/RL_process_game.jpg

此 RL 循环输出一系列状态、动作、奖励和下一个状态。

State, Action, Reward, Next State

智能体的目标是_最大化_其累积奖励,称为期望回报。

奖励假设:强化学习的核心思想

⇒ 为什么智能体的目标是最大化期望回报?

因为 RL 是基于奖励假设,即所有目标都可以描述为期望回报(期望累积奖励)的最大化。

这就是为什么在强化学习中,为了获得最佳行为,我们的目标是学习采取动作以最大化期望累积奖励。

马尔可夫性质

在论文中,你会看到 RL 过程称为马尔可夫决策过程 (Markov Decision Process,MDP)。

我们将在以下单元中再次讨论马尔可夫性质。但是如果你今天需要记住一些关于它的事情,那就是:马尔可夫性质意味着我们的智能体需要只根据当前状态来决定采取什么动作,而不是根据所有状态和动作的历史采取动作

观测/状态空间

观测/状态是我们的智能体从环境中获取的**信息。**在视频游戏的情况下,它可以是一帧(屏幕截图)。在交易智能体的情况下,它可以是某只股票的价值等。

观测状态 之间是有区别的,但是:

Chess
在国际象棋游戏中,由于我们可以访问整个棋盘信息,因此我们从环境中接收状态。

在国际象棋游戏中,我们可以访问整个棋盘信息,因此我们从环境中接收到一个状态。换句话说,环境被完全观测到。

Mario
在《超级马里奥》中,我们只能看到靠近玩家的部分关卡(level),因此我们接收的是一个观测。

在《超级马里奥》中,我们只能看到靠近玩家的部分关卡,因此我们接收的是一个观测。

在《超级马里奥》中,我们处于一个部分可观测的环境中。因为我们只看到了关卡的一部分所以我们只收到一个观测。

在本课程中,我们使用术语“状态”来表示状态和观测,但我们将在实现中加以区分。

回顾一下:
Obs space recap

动作空间" tabindex="-1">动作空间 动作空间

动作空间是环境中所有可能动作的集合。

动作可以来自离散连续空间

同样,在《超级马里奥》中,我们只有 4 种可能的动作:左,右,上(跳跃),下(蹲着)

在《超级马里奥》中,我们只有一组有限的动作,因为我们只有 4 个方向。

Self Driving Car
自动驾驶汽车智能体有无数种可能的动作,因为它可以左转 20°、21.1°、21.2°、鸣喇叭、右转 20°……

回顾一下:
Action space recap

考虑这些信息至关重要,因为它在将来选择 RL 算法时非常重要。

奖励和折扣

奖励是 RL 的基础,因为它是智能体的唯一反馈。多亏了它,我们的智能体才知道所采取的动作是否正确。

每个时间步的累积奖励 t 可以写成:

Rewards
累计奖励等于该序列所有奖励的总和。

这相当于:

Rewards
累计奖励 = rt+1 (rt+k+1 = rt+0+1 = rt+1)+ rt+2 (rt+k+1 = rt+1+1 = rt+2) + . ..

然而,在现实中,**我们不能就这样累加。**因为较早出现的奖励(在游戏开始时)更有可能发生,所以它们比长期的未来奖励更可预测。

假设你的智能体是这只小老鼠,每一步可以移动一个方块,而你的对手是猫(它也可以移动)。老鼠的目标是在被猫吃掉之前吃掉最多的奶酪。

Rewards

正如我们在图中看到的,吃掉我们附近的奶酪的可能性比吃靠近猫的奶酪的可能性更大(我们离猫越近,它就越危险)。

因此,即使猫附近的奖励更大(更多奶酪),折扣也会更多,因为我们不确定是否能够吃掉它。

为了折扣奖励,我们这样做:

  1. 我们定义一个称为 γ 的折扣率,其必须介于 0 和 1 之间。 大多数情况下介于 0.95 和 0.99 之间。
  1. 然后,每个奖励将通过 γ 时间步数的指数来打折扣。随着时间步数的增加,猫离我们越来越近,因此未来奖励发生的可能性越来越小。

我们的折扣期望累积奖励是:

https://huggingface.co/datasets/huggingface-deep-rl-course/course-images/resolve/main/en/unit1/rewards_4.jpg