强化学习入门笔记

这学期选了一门深度强化学习,也正好趁此机会系统性质地把强化学习理论基础过一下,如果可以的话可能还打算过一下深度学习基础扩展一下视野之类的。

强化学习的基本概念与基本优化理论

环境与策略

强化学习的基本框架为一个智能体和环境交互,环境对智能体的决策给出反馈,即收益信号并转移到下一状态,智能体需要学会在不同的状态下应该做出何种决策以收获最高总收益。

这里环境常常建模为 Markov 决策过程,即 MDP $(\S, \A, \Pe, r, \gamma)$。所谓 Markov 过程,指的是状态转移和历史状态无关,仅仅和当前状态有关,可以简单描述为 $\P(s_{t + 1} \mid s_t) = \P(s_{t + 1} \mid s_t, s_{t - 1}, \cdots, s_1)$。MDP 中各项指的是:

  • 状态空间 $\S$。即环境可以表现出的所有状态构成的集合。
  • 决策空间 $\A$。即环境允许智能体做出的所有决策构成的集合。
  • 状态转移概率函数 $\Pe$$\Pe(s' \mid s, a)$ 表示环境在状态 $s \in \S$ 且智能体做出决策 $a \in \A$ 的时候环境下一步转移到状态 $s' \in \S$ 的概率。这里下标 表示该概率仅与环境 本身有关。其一般称为 model 或者 dynamics。
  • 收益函数 r。收益函数为从 $\S \times \A \times \S$$\R$ 的映射。r(s,a,s′) 表示环境在状态 $s \in \S$ 且智能体做出决策 $a \in \A$ 并转移到新状态 $s' \in \S$ 的时候环境给予智能体的收益。
  • 收益衰减系数 γ。这里 γ ∈ [0,1]。该参数代表收益随着时间步衰减的系数,具体含义将会在后续定义累计收益的时候展开。

另外需要说明的是,状态 $s \in \S$ 可能并不是完全可以观测的,如果 s 不能完全观测,我们会将 s 中能观测的部分记作 o,称为观测,即 observation。所有观测构成的集合记作 𝒪。这种部分可以观测的 MDP 称为 Partially Observable MDP,缩写 POMDP。

而智能体内部所使用的策略一般表现为 π(as),其表示了智能体在该策略条件下,在状态 s 时做出决策 a 的概率。

上述的策略往往称为非确定性策略,因为其对于某个状态给出的是做出某一种决策的概率,是不确定的。而另外一类策略,即确定性策略,会对于某个状态给出具体的某一种决策。确定性策略的记号,为了和非确定性策略的 π 区别,往往使用 μ。而 a := μ(s) 就表示了智能体在该策略条件下,在状态 s 时会做出决策 a

一条轨迹(Trajectory),指的是智能体和环境不断交互的过程的记录。具体而言,环境首先位于状态 s0,智能体做出决策 a0,环境返回收益 r1 后转入新状态 s1。以此类推形成 s0, a0, r1; s1, a1, r2; ⋯。轨迹常常使用记号 τ 表示。

显然根据 Markov 的特性,我们可以得到在策略 π 的条件下某一条轨迹 τ = (s0,a0,r1;s1,a1,r2;⋯) 出现的概率为:

$$ \P_\pi(\tau) = \Pe(s_0)\prod_{t = 0}^{+\infty} \pi(a_t \mid s_t)\Pe(s_{t + 1} \mid s_t, a_t) $$

这里 $\Pe(s_0)$ 表示环境初始状态为 s0 的概率。

我们表示轨迹 τ 服从上述概率分布的时候,可以写成多种符号,包括 $\tau \sim \P_\pi(\tau)$ 或者 τ ∼ π 等等,本文会使用第二种表达。

累计收益与价值函数

对一条轨迹,累计收益(Utility)的定义为:

$$ G_t(\tau) := \sum_{k = 0}^{+\infty} \gamma^k r_{t + k + 1} $$

其中 t = 0 时,G0 可以简写为 G

这里注意到我们累加收益的时候需要不断使用衰减因子进行衰减,这一操作主要是为了拟合现实中距离现在越远的行为对当前决策的影响越小的特征,这一操作同时也保证了收敛性。

之后,我们进一步定义价值函数。首先需要定义状态行为价值函数

$$ Q^\pi(s, a) := \Eop_{\tau \sim \pi}[G(\tau) \mid s_0 = s, a_0 = a] $$

进一步即可有状态价值函数

$$ V^\pi(s) := \Eop_{\tau \sim \pi}[G(\tau) \mid s_0 = s] $$

我们可以发现状态行为价值函数描述了在状态 s 下做出决策 a 后期望的累计收益,也就是说该价值函数评价了给定状态下的某个决策的期望收益,所以我们常常使用状态行为价值函数辅助决策。而状态价值函数则和具体的决策无关,是衡量从某一个状态出发,能够获得的期望收益。

显然这两个价值函数之间存在相互推出关系,而这种关系描述如下:

Theorem 1.01 对于任何 MDP 与其上的策略 π,该策略的状态价值函数与状态行为价值函数满足:

$$ \begin{aligned} {\color{red} V^\pi(s)} &= \sum_{a \in \A} \pi(a \mid s){\color{red} Q^\pi(s, a)} \\ {\color{red} Q^\pi(s, a)} &= \sum_{s' \in \S} \Pe(s' \mid s, a)[r(s, a, s') + \gamma {\color{red} V^\pi(s')}] \\ \end{aligned} $$

第一个等式是由 Qπ 推出 Vπ 的路径,证明也是简单的:

$$ \begin{aligned} V^\pi(s) &= \Eop_{\tau \sim \pi}[G(\tau) \mid s_0 = s] \\ &= \sum_{\tau} \P_\pi(\tau \mid s_0 = s)G(\tau) \\ &= \sum_{\tau} \left(\sum_{a \in \A} \P_\pi(\tau, a_0 = a \mid s_0 = s)\right)G(\tau) \\ &= \sum_{\tau} \left(\sum_{a \in \A} \P_\pi(\tau \mid s_0 = s, a_0 = a)\P_\pi(a_0 = a \mid s_0 = s)\right)G(\tau) \\ &= \sum_{a \in \A} \P_\pi(a_0 = a \mid s_0 = s) \left(\sum_{\tau} \P_\pi(\tau \mid s_0 = s, a_0 = a) G(\tau)\right) \\ &= \sum_{a \in \A} \pi(a \mid s)\Eop_{\tau \sim \pi}[G(\tau) \mid s_0 = s, a_0 = a] \\ &= \sum_{a \in \A} \pi(a \mid s)Q^\pi(s, a) \\ \end{aligned} $$

第二个等式是由 Vπ 推出 Qπ 的路径,其涉及到了后续状态,从而实际上描述出了价值函数之间的递推关系。

我们考虑其证明,首先我们显然有这个等式:

$$ r(s, a, s') = \Eop_{\tau \sim \pi}[r_1 \mid s_0 = s, a_0 = a, s_1 = s'] $$

之后考虑对状态行为价值函数的单步展开:

$$ \begin{aligned} Q^\pi(s) &= \Eop_{\tau \sim \pi}[G(\tau) \mid s_0 = s, a_0 = a] \\ &= \Eop_{\tau \sim \pi}\left[\sum_{k = 0}^{+\infty} \gamma^k r_{k + 1} \middle| s_0 = s, a_0 = a\right] \\ &= \Eop_{\tau \sim \pi}\left[r_1 + \sum_{k = 1}^{+\infty} \gamma^k r_{k + 1} \middle| s_0 = s, a_0 = a\right] \\ &= \Eop_{\tau \sim \pi}\left[r_1 + \gamma\sum_{k = 0}^{+\infty} \gamma^k r_{k + 2} \middle| s_0 = s, a_0 = a\right] \\ &= \Eop_{\tau \sim \pi}[r_1 \mid s_0 = s, a_0 = a] + \Eop_{\tau \sim \pi}\left[\gamma\sum_{k = 0}^{+\infty} \gamma^k r_{k + 2} \middle| s_0 = s, a_0 = a\right] \\ &= \Eop_{\tau \sim \pi}[r_1 \mid s_0 = s, a_0 = a] + \gamma\Eop_{\tau \sim \pi}[G_1(\tau) \mid s_0 = s, a_0 = a] \\ \end{aligned} $$

之后我们使用全期望公式处理条件期望中的条件:

$$ \begin{aligned} \Eop_{\tau \sim \pi}[r_1 \mid s_0 = s, a_0 = a] &= \sum_{s' \in \S} \Pe(s' \mid s, a) \Eop_{\tau \sim \pi}[r_1 \mid s_0 = s, a_0 = a, s_1 = s'] \\ &= \sum_{s' \in \S} \Pe(s' \mid s, a)r(s, a, s') \\ \Eop_{\tau \sim \pi}[G_1(\tau) \mid s_0 = s, a_0 = a] &= \sum_{s' \in \S} \Pe(s' \mid s, a) \Eop_{\tau \sim \pi}[G_1(\tau) \mid s_0 = s, a_0 = a, s_1 = s'] \\ &= \sum_{s' \in \S} \Pe(s' \mid s, a) \Eop_{\tau \sim \pi}[G_1(\tau) \mid s_1 = s'] \\ &= \sum_{s' \in \S} \Pe(s' \mid s, a)V^\pi(s') \\ \end{aligned} $$

这里注意到处理第二个条件期望的时候,直接删去了 s0 = sa0 = a 两个条件,这是因为 G1(τ)s0, a0 无关,可以直接删去而不影响最后的期望。

将此代入原有展开式即可证明完毕。

事实上,基于这两个价值函数的互相推出,我们可以得到 Qπ 推出 Qπ 的公式:

$$ {\color{red} Q^\pi(s, a)} = \sum_{s' \in \S} \Pe(s' \mid s, a) \left[r(s, a, s') + \gamma\sum_{a' \in \A} \pi(a' \mid s'){\color{red} Q^\pi(s', a')}\right] $$

以及 Vπ 推出 Vπ 的公式:

$$ {\color{red} V^\pi(s)} = \sum_{a \in \A} \pi(a \mid s) \sum_{s' \in \S} \Pe(s' \mid s, a)[r(s, a, s') + \gamma {\color{red} V^\pi(s')}] $$

这两个公式直接表现出了价值函数自身具有的迭代结构,也就是当前强化学习中最为重要的方程之一,目前大部分强化学习方法的核心就是拟合该方程。该方程即 Bellman 方程(Bellman Equation)

基本优化理论

现在我们讨论如何获取一个最有价值的策略。

首先,我们定义最优状态行为价值函数最优状态价值函数

$$ \begin{aligned} Q^\star(s, a) &:= \max_\pi Q^\pi(s, a) \\ V^\star(s) &:= \max_\pi V^\pi(s) \\ \end{aligned} $$

基于最优性,我们可以定义策略之间的序。我们称策略 π 优于 π,记作 π ≥ π,当且仅当对于所有 $s \in \S$ 都满足 π 的状态函数优于 π,即 Vπ(s) ≥ Vπ(s)

我们有下述基本优化理论:

Theorem 1.02 对于任何 MDP,都存在一个最优策略 π 满足对于任何 π 都有 π ≥ π。并且该最优策略 π 在在任何状态与任何决策下均实现了最优价值,即对于任何 $s \in \S, a \in \A$ 都有 Vπ(s) = V(s), Qπ(s,a) = Q(s,a)

本文不加证明地认为该理论成立。另外,这里给出最优策略的构造。可见最优策略是确定性策略:

$$ \pi^\star(a \mid s) := \begin{cases} 1 & a = \argmax_{a \in \A} Q^\star(s, a) \\ 0 & \text{otherwise} \end{cases} $$

基于该定理我们能够得到两个最优价值函数之间存在的关系:

Theorem 1.03 对于任何 MDP,其最优状态价值函数与最优状态行为价值函数满足:

$$ \begin{aligned} {\color{red} V^\star(s)} &= \max_{a \in \A} {\color{red} Q^\star(s, a)} \\ {\color{red} Q^\star(s, a)} &= \sum_{s' \in \S} \Pe(s' \mid s, a)[r(s, a, s') + \gamma {\color{red} V^\star(s')}] \\ \end{aligned} $$

第一个等式是简单的:

$$ V^\star(s) = V^{\pi^\star}(s) = \sum_{a \in \A} \pi^\star(a \mid s)Q^{\pi^\star}(s, a) = \max_{a \in \A} Q^{\pi^\star}(s, a) = \max_{a \in \A} Q^\star(s, a) $$

第二个等式直接对 π 应用一般的 Bellman 方程即可得到。

从而还有下述最优 Bellman 方程(Bellman Optimality Equation)

$$ {\color{red} Q^\star(s, a)} = \sum_{s' \in \S} \Pe(s' \mid s, a) \left[r(s, a, s') + \gamma\max_{a' \in \A} {\color{red} Q^\star(s', a')}\right] $$

以及:

$$ {\color{red} V^\star(s)} = \max_{a \in \A} \left[\sum_{s' \in \S} \Pe(s' \mid s, a)[r(s, a, s') + \gamma {\color{red} V^\star(s')}]\right] $$

理论上我们可以求解最优 Bellman 方程得到 V,从而就能够反推出 π。然而求解最优 Bellman 方程是计算困难的,现行的强化学习方法就是在尝试近似求解最优 Bellman 方程。

基于完全环境知识的 RL 方法

如果我们能够完全掌握环境,即完全掌握转移概率 $\Pe$ 和收益函数 r,那么我们可以使用动态规划(Dynamic Programming, DP)来求解最优策略。DP 方法有两种类别,分别是策略迭代(Policy Iteration, PI)值迭代(Value Iteration, VI)

Policy Iteration (PI)

如果我们已经对环境有了完整的建模,我们完全可以使用迭代的方式求解最优 Bellman 方程。

具体的迭代过程分为两步,分别为策略评估(Policy Evaluation)策略提升(Policy Improvement),这两步会交替进行。具体而言,策略评估是在已知 π 的条件下计算其状态价值函数 Vπ。而策略提升为在得知状态价值函数的基础上优化策略 π

首先阐述策略评估的过程,这里举出一个迭代计算的方式。

我们记 Vk 是第 k 轮迭代的时候的状态价值函数,那么我们在初始化 V0 之后不断进行下述迭代直到状态价值函数收敛:

$$ V_{k + 1}(s) \leftarrow \sum_{a \in \A} \pi(a \mid s) \sum_{s' \in \S} \Pe(s' \mid s, a)[r(s, a, s') + \gamma V_k(s')] $$

收敛后,应当有 V+∞ = Vπ,此时我们就得到了策略 π 所对应的价值函数。

策略评估除了使用迭代的方式计算,也可以使用求解线性方程组等方式计算,这些方法我们不具体展开。

之后阐述策略提升的方法。

我们在得知了策略 π 的状态价值函数 Vπ 之后,我们可以贪心地构造一个确定性策略 π,保证策略更优。保证这一点能够成立的是下述定理:

Theorem 2.01 (Policy Improvement Theorem) 对于已知的策略 π,定义确定性策略 π

$$ \pi'(a \mid s) := \begin{cases} 1 & a = \argmax_{a \in \A} Q^\pi(s, a) \\ 0 & \text{otherwise} \end{cases} $$

那么 π′ ≥ π,并且等号成立当且仅当 π = π′ = π

证明是简单的,首先我们可以注意到:

$$ Q^\pi(s, \pi'(s)) = \max_{a \in \A} Q^\pi(s, a) \geq \sum_{a \in \A} \pi(a \mid s)Q^\pi(s, a) = V^\pi(s) $$

我们从而能得到下述不等式。这里事实上进行了单步展开,进一步就可以尝试利用迭代结构构造不等式链,具体细节则在后续证明中说明:

$$ \begin{aligned} V^\pi(s) &\leq Q^\pi(s, \pi'(s)) \\ &= \sum_{s' \in \S} \Pe(s' \mid s, \pi'(s))[r(s, \pi'(s), s') + \gamma V^\pi(s')] \\ &= \sum_{s' \in \S} \Pe(s' \mid s, \pi'(s))r(s, \pi'(s), s') + \gamma\sum_{s' \in \S} \Pe(s' \mid s, \pi'(s)) V^\pi(s') \\ \end{aligned} $$

另外,我们可以证明:

$$ \begin{aligned} &\sum_{s' \in \S} \Pe(s' \mid s, \pi'(s))r(s, \pi'(s), s') \\ =& \sum_{s' \in \S} \Pe(s' \mid s, \pi'(s))\Eop_{\tau \sim \pi'}[r_1 \mid s_0 = s, a_0 = \pi'(s), s_1 = s'] \\ =& \sum_{a \in \A} \pi'(a \mid s)\sum_{s' \in \S} \Pe(s' \mid s, a)\Eop_{\tau \sim \pi'}[r_1 \mid s_0 = s, a_0 = a, s_1 = s'] \\ =& \Eop_{\tau \sim \pi'}[r_1 \mid s_0 = s] \end{aligned} $$

即得到:

$$ V^\pi(s) \leq \Eop_{\tau \sim \pi'}[r_1 \mid s_0 = s] + \gamma\sum_{s' \in \S} \Pe(s' \mid s, \pi'(s)) V^\pi(s') $$

对这个不等式迭代展开:

$$ \begin{aligned} V^\pi(s) &\leq \Eop_{\tau \sim \pi'}[r_1 \mid s_0 = s] + \gamma\sum_{s' \in \S} \Pe(s' \mid s, \pi'(s)) V^\pi(s') \\ &\leq \Eop_{\tau \sim \pi'}[r_1 \mid s_0 = s] + \gamma\sum_{s' \in \S} \Pe(s' \mid s, \pi'(s)) \left[\Eop_{\tau \sim \pi'}[r_2 \mid s_1 = s'] + \gamma\sum_{s'' \in \S} \Pe(s'' \mid s', \pi'(s')) V^\pi(s'')\right] \\ &= \Eop_{\tau \sim \pi'}[r_1 \mid s_0 = s] + \gamma{\color{red} \sum_{s' \in \S} \Pe(s' \mid s, \pi'(s))\Eop_{\tau \sim \pi'}[r_2 \mid s_1 = s']} + \gamma^2\sum_{s' \in \S}\sum_{s'' \in \S}\Pe(s'' \mid s', \pi'(s')) V^\pi(s'') \\ \end{aligned} $$

对于红色部分,我们容易发现 s0 = s 对于 r2 的期望是无效条件,所以:

$$ \sum_{s' \in \S} \Pe(s' \mid s, \pi'(s))\Eop_{\tau \sim \pi'}[r_2 \mid s_1 = s'] = \sum_{s' \in \S} \Pe(s' \mid s, \pi'(s))\Eop_{\tau \sim \pi'}[r_2 \mid s_0 = s, s_1 = s'] = \Eop_{\tau \sim \pi'}[r_2 \mid s_0 = s] $$

所以:

$$ V^\pi(s) \leq \Eop_{\tau \sim \pi'}[{\color{red} r_1 + \gamma r_2} \mid s_0 = s] + {\color{green} \gamma^2\sum_{s' \in \S}\sum_{s'' \in \S}\Pe(s'' \mid s', \pi'(s')) V^\pi(s'')} $$

我们接下来展开绿色部分的时候,可以注意到我们需要为 r3 的条件期望补上 s0 = ss1 = s 两个无效条件,然后两个求和号通过全期望公式消去 s1 = s 以及 s2 = s 两个条件,故剩余的条件仅有 s0 = s,从而可以进一步合并到红色部分。以此类推,我们就能够说明该不等式的迭代展开是可行的,从而得到:

$$ V^\pi(s) \leq \Eop_{\tau \sim \pi'}[{\color{red} r_1 + \gamma r_2 + \gamma^2r_3 + \cdots} \mid s_0 = s] = V^{\pi'}(s) $$

从而欲证明的不等式成立。

而根据证明过程,该不等式取等当且仅当满足 $V^\pi(s) = Q^\pi(s, \pi'(s)) = \max_{a \in \A}Q^\pi(s, a)$,而这正是最优 Bellman 方程。也就是说我们使得 Vπ = V。此外,π 目前也必须是一个确定性策略,从而也就保证了 π = π

综合策略评估和策略提升,交替进行两者我们就可以保证能够获取到最优策略。然而这个方法并不现实,因为理论上我们需要对环境有完全把握,至少我们需要得到整个环境状态转移矩阵才能进行。

Value Iteration (VI)

同样,在已经完全得知环境的条件下,除了策略迭代,我们还可以用值迭代求解最优策略。相较于策略迭代是迭代策略本身,值迭代则是在迭代求解状态价值函数。

考虑最优 Bellman 方程:

$$ {\color{red} V^\star(s)} = \max_{a \in \A} \left[\sum_{s' \in \S} \Pe(s' \mid s, a)[r(s, a, s') + \gamma {\color{red} V^\star(s')}]\right] $$

也就是说我们完全可以直接先随意初始化一个 V0 ≡ 0,然后不断使用上述方程做迭代直到收敛,此时 V+∞ = V。迭代的流程描述为:

$$ {\color{red} V_{k + 1}(s)} \leftarrow \max_{a \in \A} \left[\sum_{s' \in \S} \Pe(s' \mid s, a)[r(s, a, s') + \gamma {\color{red} V_k(s')}]\right] $$

重复该迭代直到收敛,即可获得最优状态价值函数。基于最优状态价值函数,可以推知最优策略,从而算法求解完毕。

这里需要说明的一点是,使用值迭代求解的时候,策略是比价值函数先收敛的。这一点是显然的,因为通过价值函数获取对应的策略是贪心的。从而,在价值函数还未实际完全收敛的时候,各个状态的价值大小关系很有可能已经确定且不变化,从而从这一时间点开始,推知的策略都不会发生变化,理论上都是最优策略。

值迭代的时间复杂度为 $O(|\S|^2|\A|)$

有关 PI 和 VI 的一些对比

事实上基于 Bellman 方程而言,VI 方法是最直观也是最容易想到的,因为通过迭代法求解有递归结构的方程确实是一种很常见的方法。然而 VI 的两个特点也是限制其运用的缺陷,即策略早于价值函数收敛复杂度较高

前者事实上是 VI 的一个致命缺陷,因为从根本上而言我们需要获取的是最优策略,具体的价值函数可能并不关注,或者至少不是最主要目标。另外,高复杂度也让 VI 的实际运算难度较高,而这也一定程度上催生了 PI 方法。

VI 在运算过程中有一步涉及到了 $\max_{a \in \A}$,这需要遍历行为空间却没有有效利用遍历的信息(仅取了最大值)。那么一个显然的性能换时间的操作就是我们取一个并非最优但足够优的策略 $\pi: \S \to \A$,直接用 a := π(s) 代替掉 $a := \argmax_{a \in \A}$,这样复杂度直接就降低到 $O(|\S|^2)$

为了保证 π 能够足够优,那我们可以两路并进,一路优化 π,一路更新 Vπ,从而我们就得到了 PI 方法。PI 方法在部分条件下会比 VI 方法收敛快很多,并且我们依然可以证明 PI 理论可以得到最优策略。

有关 Bellman 算子的拓展

如果仔细观察 Bellman 方程,其事实上就是一个线性方程:

$$ {\color{red} V^\pi(s)} = \sum_{a \in \A} \pi(a \mid s) \sum_{s' \in \S} \Pe(s' \mid s, a)[r(s, a, s') + \gamma {\color{red} V^\pi(s')}] $$

首先作一些记号简化:

$$ \begin{aligned} \P^\pi(s' \mid s) &:= \sum_{a \in \A} \pi(a \mid s)\Pe(s' \mid s, a) \\ r^\pi(s) &:= \sum_{a \in \A} \pi(a \mid s) \sum_{s' \in \S} \Pe(s' \mid s, a)r(s, a, s') \\ \end{aligned} $$

得到:

$$ {\color{red} V^\pi(s)} = r^\pi(s) + \gamma\sum_{s' \in \S} \P^\pi(s' \mid s){\color{red} V^\pi(s')} $$

如果记 $\S = \{s_1, s_2, \cdots, s_n\}, n = |\S|$,并定义矩阵:

$$ \begin{aligned} \b{V}^\pi &:= (v^\pi_i)^T_{n} \in \R^n && v^\pi_i := V^\pi(s_i) \\ \b{R}^\pi &:= (r^\pi_i)^T_{n} \in \R^n && r^\pi_i := r^\pi(s_i) \\ \b{P}^\pi &:= (p^\pi_{ij})_{n \times n} \in \R^{n \times n} && p^\pi_{ij} := \P^\pi(s_j \mid s_i) \\ \end{aligned} $$

那么 Bellman 方程等价于:

$$ \b{V}^\pi = \b{R}^\pi + \gamma\b{P}^\pi\b{V}^\pi \Rightarrow (I - \gamma\b{P}^\pi)\b{V}^\pi = \b{R}^\pi $$

这里就可以引入 Bellman 算子:

$$ \mathcal{T}^\pi(\b{x}) := \b{R}^\pi + \gamma\b{P}^\pi\b{x} $$

如果状态空间足够小,那么在 PI 的策略评估阶段,事实上完全可以通过求解上述线性方程组解的方式得到策略的价值函数。

除了 Bellman 算子,还可以从最优 Bellman 方程引入最优 Bellman 算子。首先依然是定义矩阵:

$$ \begin{aligned} \b{V}^\star &:= (v^\star_i)^T_{n} \in \R^n && v^\star_i := V^\star(s_i) \\ \b{R}(a) &:= (r_i(a))^T_{n} \in \R^n && r_i(a) := \sum_{s_j \in \S} \Pe(s_j \mid s_i, a)r(s_i, a, s_j) \\ \b{P}(a) &:= (p_{ij}(a))_{n \times n} \in \R^{n \times n} && p_{ij}(a) := \Pe(s_j \mid s_i, a) \\ \end{aligned} $$

那么最优 Bellman 算子就定义为:

$$ \mathcal{T}^\star(\b{x}) := \max_{a \in \A}(\b{R}(a) + \gamma\b{P}(a)\b{x}) $$

现在我们需要证明一个我们并没有严格说明的引理,即使用迭代法求解价值函数的合法性,无论是 PI 中策略评估还是 VI 求最优价值函数本身。事实上,这两者本质相同,其都在求解 Bellman 算子的不动点,只不过一个是一般 Bellman 算子,一个是最优 Bellman 算子。这里以最优 Bellman 算子为例进行证明。

证明的主要思想就是 Banach 空间不动点定理。

Theorem 2.02 (Banach Fixed-point Theorem) 给定完备度量空间 X 以及其范数 d,假设 f : X → X 是一个压缩映射,即存在 γ ∈ [0, 1)x1, x2 ∈ X 都有:

d(f(x1),f(x2)) ≤ γd(x1,x2)

那么 fX 上存在唯一不动点 x*

该不动点满足,任取 x0 ∈ X,定义序列 {xn}n ≥ 0,其中 xn + 1 = f(xn), n ≥ 0,那么该序列必然收敛到 x*

证明是简单的。首先我们任取 x0 ∈ X,考虑对 m > n

$$ \begin{aligned} d(f^{(m)}(x_0), f^{(n)}(x_0)) &\leq d(f^{(m)}(x_0), f^{(m - 1)}(x_0)) + d(f^{(m - 1)}(x_0), f^{(m - 2)}(x_0)) + \cdots + d(f^{(n + 1)}(x_0), f^{(n)}(x_0)) \\ &\leq \gamma^{m - 1}d(f(x_0), x_0) + \gamma^{m - 2}d(f(x_0), x_0) + \cdots + \gamma^nd(f(x_0), x_0) \\ &\leq \dfrac{\gamma^n}{1 - \gamma}d(f(x_0), x_0) \\ \end{aligned} $$

也就是无论给多紧的界,我总能令 n 充分大满足上界约束,从而该序列是 Cauchy 序列,在完备度量空间上其自然是收敛的。

假定这个序列收敛到 x*,我们需要说明 x*f 的不动点以及其唯一性。其是不动点是容易的,考虑:

0 ≤ d(xn + 1,f(x*)) = d(f(xn),f(x*)) ≤ γd(xn,x*)

由于 n → ∞d(xn,x*) → 0,这说明 d(xn + 1,f(x*)) → 0,也就说明 f(x*) 也是序列 {xn}n ≥ 0 的极限,据极限的唯一性,不动点得证。

唯一性则据反证。若存在第二个不动点 f(y) = y,那么:

d(x*,y) = d(f(x*),f(y)) ≤ γd(x*,y) ⇒ (1−γ)d(x*,y) ≤ 0

上述约束仅有 y = x* 时成立,唯一性得证。


基于该引理,我们只需要说明最优 Bellman 算子也满足引理所述条件即可。在空间 $\S$ 上取其 L 范数(即各分量最大值)。我们证明最优 Bellman 算子是压缩的:

$$ \begin{aligned} \|\mathcal{T}^\star(\b{V}_1) - \mathcal{T}^\star(\b{V}_2)\|_\infty &= \left\|\max_{a \in \A}(\b{R}(a) + \gamma\b{P}(a)\b{V}_1) - \max_{a \in \A}(\b{R}(a) + \gamma\b{P}(a)\b{V}_2)\right\|_\infty \\ &\leq \left\|\max_{a \in \A}(\b{R}(a) + \gamma\b{P}(a)\b{V}_1 - \b{R}(a) - \gamma\b{P}(a)\b{V}_2)\right\|_\infty \\ &= \gamma\left\|\max_{a \in \A}(\b{P}(a)(\b{V}_1 - \b{V}_2))\right\|_\infty \\ &\leq \gamma\|\b{V}_1 - \b{V}_2\|_\infty \end{aligned} $$

最后一个不等号源于 $\b{P}(a)$ 矩阵中,每一行的元素之和必然为 1。如果假设 $\b{V}_1 - \b{V}_2$ 各元素中最大为 p(亦其 L 范数),那么 $\b{P}(a)(\b{V}_1 - \b{V}_2)$ 每一个元素都不会大于 p

从而得证。

事实上我们有下述定理,描述了迭代法求解的正确性。对于任意初始化的 $\b{V}_0$

$$ \lim_{n \to \infty} \mathcal{T}^{\pi(n)}\b{V}_0 = \b{V}^\pi, \lim_{n \to \infty} \mathcal{T}^{\star(n)}\b{V}_0 = \b{V}^\star $$

基于环境交互的 RL 方法

如果我们无法掌握环境的信息,我们就需要令智能体与环境交互以收集信息。而这也是当前绝大多数 RL 问题需要采用的方法,因为我们完全能掌握的环境几乎不存在。

这里简单提一下无模型(Model-free)基于模型(Model-based)的概念。在智能体和环境交互的过程中,事实上我们有两种选择,其一是让智能体去和真实的环境作交互,这就是无模型方法。其二是我们事先使用另外一个模型去拟合环境,让智能体和这个模型交互,这就是基于模型方法。基于模型方法的优势在于,如果智能体和真实的环境交互成本高昂或者环境响应较慢,则可以用于大幅降低实验成本。但相应地,基于模型方法也需要一个相当优越的和环境契合的模型才能让智能体真正学习到最优策略。

基于环境交互的 RL 方法的流程事实上近似于策略迭代,也被称为广义策略迭代(General Policy Iteration, GPI)。GPI 的流程是首先初始化一个价值函数和策略 V, π,并不断重复下述两个操作:

  • (策略评估)更新价值函数使得其符合当前的策略,即 V = Vπ
  • (策略改进)根据当前价值函数贪心地更新策略,即 $\pi = {\rm greedy}(V)$

当然,这里是以状态价值函数 V 作为比方,事实上状态行为价值函数 Q 也可以应用到上述流程中。

具体讲解之前,首先引入同轨(On-policy)异轨(Off-policy)的概念。这类 RL 方法中智能体所执行的策略一般有两种用途,其一是用于与环境交互收集转移轨迹,这个策略称为采样策略(Sample Policy)或者行为策略(Behavioral Policy),其二是用于在环境中获取收益,这个策略称为目标策略(Target Policy)。如果一个智能体的行为策略和目标策略是不一致的,那这个方法就是异轨的,相对应地,行为策略和目标策略一致的时候这个方法是同轨的。

如果采用同轨方法,那么策略评估、策略改进的流程就是简单的,也就是按照描述迭代即可。然而如果采用异轨方法,通用的方法是:

  • 策略评估时应当估算目标策略的价值函数
  • 策略改进时应当贪心地生成行为策略

策略评估

Monte-Carlo (MC)

MC 方法计算目标策略的价值函数的方法非常简单,即使用行为策略直接采样一整条轨迹,利用这一条轨迹上的信息更新价值函数。更新方式也相对简单,直接使用算术平均值或者利用学习率更新即可。设定固定的学习率 α,若行为策略采样得到的轨迹为 τ,对该轨迹上任何一个状态 st,MC 方法的更新公式为:

V(st) ← V(st) + α(Gt(τ)−V(st))

理论而言,MC 方法相当简易且不涉及到 bootstrap。这里 bootstrap 指的是一类“利用估计值本身更新估计值”的更新策略,在后续 TD 方法中展开说明。另一方面,MC 方法也因为低效和并没有充分利用 Bellman 方程而具有缺陷。

GPI 中使用 MC 方法做策略评估的算法一般称为 蒙特卡洛控制算法

Temporal-Difference (TD)

TD 方法与 MC 方法目标是一致的,也是尽力取得价值函数的准确估计。但是两者的核心差别在于,TD 方法是一个更新力度更小的 bootstrap 方法,TD 方法会在每一次决策后进行更新。这种逐步更新的问题在于我们无法精确获取某一个状态的累计收益,所以我们需要虚化一个更新目标,这也就是所谓的 TD target。

假设我们在时刻 t 时位于状态 st,我们通过决策行为 at 迁移到了状态 st + 1,并且获取收益 rt + 1。另外,我们保存有一个所有状态的价值函数估计值表 $V(s), s \in \S$。那么 TD target 指的是:

$$ {\rm TD\ target} := r_{t + 1} + \gamma V(s_{t + 1}) $$

可以注意到,TD target 本身是利用类似 Bellman 方程中的步进展开方法,通过 V(st + 1)V(st) 作出估计,并以此作为 V(st) 更新的目标。这和 MC 使用真实采样获取到真实的累计收益作为更新目标完全不同,这也就是 bootstrap 的含义。

在获取 TD target 后,就可以计算目标和当前估计值的差,即 TD error:

$$ {\rm TD\ error} = \delta_t := r_{t + 1} + \gamma V(s_{t + 1}) - V(s_t) $$

之后,设定一个适当的学习率 α,即可得到 TD 方法的核心更新策略,下述这种简单的更新策略也被称为 TD(0) 方法:

V(st) ← V(st) + αδt = V(st) + α(rt + 1+γV(st + 1)−V(st))

从理论上比较 TD 方法与 MC 方法。MC 方法使用的累计收益 Gt(τ) 是对价值函数 Vπ(s) 的无偏估计,而 TD 方法使用的 TD target 则相应是有偏估计。然而就估计方差而言,TD 方法由于仅仅涉及到一步决策,其方差显然较 MC 方法小。就初始值方面而言,MC 方法对估计的初始值设置并不敏感,然而 TD 由于基于 bootstrap,故对初始值设置极为敏感。

如果简单总结上述方法,可以使用下述图:

简而言之,MC 方法较 TD 方法而言有着更深的探索。而 DP 方法(尤其是 VI)则是遍历所有可能的后继状态进行更新,从而具有更广泛的视角,也就拥有广度。与这三者均不同的则是搜索,其需要完整探索整个决策树,但这自然是相当浪费资源的。

GPI 中使用 TD 方法做策略评估的算法一般称为 TD 控制算法或者时序差分控制算法

多步 TD target 与 TD(λ)

TD target 事实上可以设置为多步的。传统的 TD target 是单步的,即仅仅考虑轨迹上的一步转移。考虑多步 TD target,不妨考虑三步,假定轨迹上有三步转移片段 st, at, rt + 1; st + 1, at + 1, rt + 2; st + 2, at + 2, rt + 3; st + 3,那么 TD target 可以定义为:

$$ {\rm TD\ target} := r_{t + 1} + \gamma r_{t + 2} + \gamma^2 r_{t + 3} + \gamma^3 V(s_{t + 3}) $$

这也可以称为三步 TD target。事实上,如果令考虑的步数趋向于无限,无穷步 TD target 也就成为了事实的累计收益,TD 方法转化为 MC 方法。

我们先前提到过,TD 方法对估计值初始化敏感,但是其效率较高。另一方面,MC 方法对初始值不敏感,但是效率较低。我们事实上可以使用一种方法将其两者结合,即基于介于 TD 与 MC 方法之间的多步 TD target,利用一定的权重将其组合,作为新的 TD target,这就是 TD(λ) 方法。

n 步 TD target 记为 Gt(n),那么 TD(λ) 中的 TD target 定义为:

$$ G^\lambda_t := (1 - \lambda)\sum_{n = 1}^{+\infty}\lambda^{n - 1}G_t^{(n)} $$

传统的 TD 方法即 λ = 0 的 TD(λ) 方法。

Backward-view TD(λ) & Eligibility Traces

然而使用 λ ≠ 0 的 TD(λ) 方法的时候显然存在一个问题,那就是由于 Gtλ 的求和上限是  + ∞,这就代表我们需要让智能体在环境中一直采样到轨迹终止。这样的话事实上就违背了使用 TD(λ) 方法的初衷,我们希望在保持 TD 方法的效率的基础上引入多步实际采样来做到更精准的估计,所以要求采样到轨迹终止是不能容忍的。

一种简单的解决方式,那就是用 Backward-view TD(λ) 取代上面的 Forward-view TD(λ)。Forward-view 的含义是通过未来的 st + 1, st + 2, ⋯ 来更新 V(st) 的估计。而 Backward-view 与之相反,其通过之前经历的状态和轨迹确定价值函数估计。

一种直观的解释是,Backward-view 就是反思先前的哪一个决策是导致到达当前状态的核心原因。

我们定义效用函数(Eligibility)$E_t(s), s \in \S$,这里下标 t 表示不同的时间的效用函数都是不同的。我们引入效用函数的目的是将其作为权重引入价值函数更新流程中,表示 TD error 以多大程度影响价值函数估计:

V(st) ← V(st) + αδtEt(st) = V(st) + αEt(st)(rt + 1+γV(st + 1)−V(st))

然后,定义效用函数的初始化和更新原则:

$$ \begin{aligned} &E_0(s) = 0, \forall s \in \S \\ &E_t(s) = \gamma\lambda E_{t - 1}(s) + \b{1}(s_t = s), \forall t \in \mathbb{N}^+, s \in \S \\ \end{aligned} $$

现在简单从数学角度说明使用效用函数的 Backward-view TD(λ) 与 Forward-view TD(λ) 方法等价。为了简化,这里假设轨迹中经历过的状态后续不在经过。假设我们在 k 时刻到达了状态 sk,那么:

$$ E_t(s_k) = \begin{cases} 0 & t < k \\ (\gamma\lambda)^{t - k} & t \geq k \\ \end{cases} $$

那么使用效用函数时,我们在迭代终止时得到的状态 sk 的价值函数估计为(价值函数上标 ${\rm B}$ 表示后向视角):

$$ V_{+\infty}^{\rm B}(s_k) = V_0(s_k) + \sum_{t = 1}^{+\infty} \alpha\delta_tE_t(s_k) = V_0(s_k) + \alpha\sum_{t = k}^{+\infty} (\gamma\lambda)^{t - k}\delta_t = V_0(s_k) + \alpha\sum_{t = 0}^{+\infty} (\gamma\lambda)^t\delta_{t + k} $$

考虑下述计算:

$$ \begin{aligned} G_t^\lambda - V_t(s_t) &= -V_t(s_t) + (1 - \lambda)\sum_{n = 1}^{+\infty}\lambda^{n - 1}G_t^{(n)} \\ &= -V_t(s_t) + (1 - \lambda)\sum_{n = 1}^{+\infty}\lambda^{n - 1}\left(\gamma^nV_t(s_{t + n}) + \sum_{i = 1}^n \gamma^{i - 1}r_{t + i}\right) \\ &= -V_t(s_t) + \sum_{n = 1}^{+\infty}\lambda^{n - 1}\left(\gamma^nV_t(s_{t + n}) + \sum_{i = 1}^n \gamma^{i - 1}r_{t + i}\right) - \sum_{n = 1}^{+\infty}\lambda^n\left(\gamma^nV_t(s_{t + n}) + \sum_{i = 1}^n \gamma^{i - 1}r_{t + i}\right) \\ &= -V_t(s_t) + \sum_{n = 0}^{+\infty}\lambda^n\left(\gamma^{n + 1}V_t(s_{t + n + 1}) + \sum_{i = 1}^{n + 1} \gamma^{i - 1}r_{t + i}\right) - \sum_{n = 1}^{+\infty}\lambda^n\left(\gamma^nV_t(s_{t + n}) + \sum_{i = 1}^n \gamma^{i - 1}r_{t + i}\right) \\ &= -V_t(s_t) + \gamma V_t(s_{t + 1}) + r_{t + 1} + \sum_{n = 1}^{+\infty} \lambda^n\left(\gamma^{n + 1}V_t(s_{t + n + 1}) - \gamma^nV_t(s_{t + n}) + \gamma^nr_{t + n + 1}\right) \\ &= \sum_{n = 0}^{+\infty} \lambda^n\left(\gamma^{n + 1}V_t(s_{t + n + 1}) - \gamma^nV_t(s_{t + n}) + \gamma^nr_{t + n + 1}\right) \\ &= \sum_{n = 0}^{+\infty} \gamma^n\lambda^n\left(\gamma V_t(s_{t + n + 1}) - V_t(s_{t + n}) + r_{t + n + 1}\right) \\ &\approx \sum_{n = 0}^{+\infty} \gamma^n\lambda^n\left(\gamma V_{t + n}(s_{t + n + 1}) - V_{t + n}(s_{t + n}) + r_{t + n + 1}\right) \\ &= \sum_{n = 0}^{+\infty} (\gamma\lambda)^n\delta_{t + n} \end{aligned} $$

这就说明通过效用函数,我们最终得到的状态 sk 的价值函数估计为:

$$ V_{+\infty}^{\rm B}(s_k) = V_0(s_k) + \alpha(G_k^\lambda - V_k(s_k)) $$

而如果通过 Forward-view TD(λ),由于后续不在经历 sk,那么 sk 的价值函数只会在时刻 k 发生一步更新,其余时刻并不更新。而在时刻 k,TD target 为 Gkλ,即可得到最终的价值函数估计(价值函数上标 ${\rm F}$ 表示前向视角):

$$ V_{+\infty}^{\rm F}(s_k) = V_0(s_k) + \alpha(G_k^\lambda - V_k(s_k)) $$

从而证明完毕。事实上,如果去掉状态不重复的假设,也只是把每次经过该状态时的状态函数值变化拆开,每一部分都可以通过上面的过程证明两个视角的等价性,从而求和后依然是等价的。

这里简单说明 RL 中在线(Online)离线(Offline)的区别。在线指的是智能体通过策略收集环境信息和通过这些信息更新策略是同时的,而离线则指的是通过某个固定策略在环境中收集信息,然后离线通过这些数据更新策略。

在线算法的特征在于价值函数估计在每个时间步都会发生更新。而离线算法由于已经事先采集若干条轨迹,所以更新的粒度是整条轨迹,即完整考虑一条轨迹,每次完整读取完一条轨迹后做一次价值函数估计更新。

上述推理中使用了约等于,这仅限于在线场景,而对于离线场景,价值函数 Vt 中下标 t 即失效(不再每个时间步更新),此时约等于变为严格等于。这也就说明两个视角在离线条件下是严格等价,在在线条件下是大致等价。

策略改进

策略改进的方式实际上不拘一格,这和策略评估相对手段有限形成对比的原因是,策略评估严格要求价值函数收敛到当前策略(采用异轨方法时是当前目标策略)的真实价值函数,而策略改进仅仅是要求贪心地生成,并没有严格要求生成方式。

常见的策略改进之一就是完全贪心策略(Greedy Policy),最优 Bellman 方程 $V^\star(s) = \max_{a \in \A} Q^\star(s, a)$ 保证了完全贪心策略依然可以收敛到最优策略:

$$ \pi(a \mid s) := \begin{cases} 1 & a = \argmax_{a' \in \A} Q(s, a') \\ 0 & {\rm otherwise} \\ \end{cases} $$

然而这种方法并不一定在实际上优越,这是因为一个策略往往需要同时考虑下面两种相对立的优化目标:

  • (Exploration)能够充分探索未知的状态和行为,增加对环境的认识
  • (Exploitation)能够充分利用已经掌握的环境信息,获取尽可能高的累计收益

Exploration 会要求行为策略更加激进而 Exploitation 会要求目标策略更加保守,如何平衡这两者以获取高收益也就是这一类 RL 方法的核心。

一种简单的方式是 ε 贪心策略(ε Greedy Policy),其表现为:

$$ \pi(a \mid s) := \begin{cases} \varepsilon / |\A| + 1 - \varepsilon & a = \argmax_{a' \in \A} Q(s, a') \\ \varepsilon / |\A| & {\rm otherwise} \\ \end{cases} $$

当然,还会有类似 Boltzman 探索之类的并不常见的策略改进:

$$ \pi(a \mid s) := \frac{\exp(Q(s, a) / T)}{\sum_{a' \in \A} \exp(Q(s, a') / T)} $$

Definition 3.01 (GLIE) 假设第 k 时刻策略改进得到策略 πk,状态行为价值函数 Qk,记经过 k 时长后策略在状态 s 处做出决策 a 的次数为 N(s,a)。我们称该策略改进是 Greedy in the Limit with Infinite Exploration (GLIE),如果:

  • 充分长时间后所有状态决策对均探索无穷次

$$ \lim_{k \to +\infty} N_k(s, a) = +\infty, \forall s \in \S, a \in \A $$

  • 策略最终收敛到贪心策略

$$ \lim_{k \to +\infty} \pi_k(a \mid s) = \b{1}\left(a = \argmax_{a' \in \A} Q_k(s, a')\right), \forall s \in \S, a \in \A $$

Boltzman 探索是 GLIE,而 ε 贪心策略则可能不是 GLIE。

时序差分控制

时序差分控制的一般流程如下所示:

  • 初始化目标策略 π 以及价值函数 Qπ
  • 循环执行下述步骤直到收敛
    • 【策略改进】利用 Qπ 生成行为策略并执行一次,采样得到一步状态转移
    • 【策略评估】根据行为策略得到的一步状态转移更新目标策略 π 的价值函数 Qπ

同轨时序差分控制(SARSA)

在同轨时序差分控制之中使用 ε 贪心策略即可得到 SARSA 算法。若令时刻 t 智能体位于状态 st,做出决策 at 转移到状态 st + 1 并获得收益 rt + 1,如果其下一时刻做出决策 at + 1,可以得到其策略评估阶段所采用的更新为:

Q(st,at) ← Q(st,at) + α[rt + 1+γQ(st + 1,at + 1)−Q(st,at)]

异轨时序差分控制(Q learning)

在异轨时序差分控制中,令目标策略为完全贪心策略,行为策略为 ε 贪心策略即可得到 Q learning 算法。若令时刻 t 智能体位于状态 st,做出决策 at 转移到状态 st + 1 并获得收益 rt + 1,可以得到其策略评估阶段所采用的更新为:

$$ Q(s_t, a_t) \leftarrow Q(s_t, a_t) + \alpha\left[r_{t + 1} + \gamma\max_{a \in \A} Q(s_{t + 1}, a) - Q(s_t, a_t)\right] $$

蒙特卡洛控制

蒙特卡洛控制的一般流程如下所示:

  • 初始化目标策略 π 以及价值函数 Qπ
  • 循环执行下述步骤直到收敛
    • 【策略改进】利用 Qπ 生成行为策略并执行至终止,采样得到一条完整轨迹
    • 【策略评估】根据行为策略得到的轨迹更新目标策略 π 的价值函数 Qπ

同轨蒙特卡洛控制

若在采样得到的轨迹 τ 中,时刻 t 智能体位于状态 st,做出决策 at 转移到状态 st + 1 并获得收益 rt + 1,可以得到其策略评估阶段所采用的更新为:

Q(st,at) ← Q(st,at) + α[Gt(τ)−Q(st,at)]

异轨蒙特卡洛控制

现在我们需要考虑异轨带来的一个重要问题,我们通过行为策略采样得到的数据直接更新目标策略的价值函数估计是否合理。在时序差分控制中我们并没有思考这一问题,仅仅是由于时序差分控制中,行为策略和目标策略的更新每步都在进行,两者可以认为相对接近,从而可以忽略这一问题,并不是说明时序差分控制中不存在这一问题。例如,Q learning 的更新公式中:

$$ Q(s_t, a_t) \leftarrow Q(s_t, a_t) + \alpha\left[r_{t + 1} + \gamma{\color{red} \max_{a \in \A} Q(s_{t + 1}, a)} - Q(s_t, a_t)\right] $$

这里 st + 1 是通过行为策略确定的,然而在更新的时候则直接使用其计算目标策略(完全贪心策略)价值函数的 TD target。

然而在蒙特卡洛控制中这一问题则较为明显,因为行为策略会直接采样得到一整条轨迹,其会导致目标策略价值函数的大批量更新。

该问题可以形式化定义为,已知行为策略 b 与目标策略 π,以及使用行为策略 b 采样得到的轨迹 τ,我们应当如何拟合计算目标策略的价值函数 Qπ

此时一般会使用重要性采样方法。我们考虑随机变量 X 以及其概率密度函数 $f_X(x) := \P(X = x)$,随机变量 X 的期望显然定义为:

$$ \Eop_{x \sim X}[x] := \int_{\mathbb R} xf_X(x) \d x $$

并且对于任何实数集上的函数 φ 都有:

$$ \Eop_{x \sim X}[\varphi(x)] := \int_{\mathbb R} \varphi(x)f_X(x) \d x $$

为了估算 $\E[\varphi(X)]$,我们可以使用采样并利用样本均值作为数学期望的估计值。例如我们采样获取了 XN 个值 x1, x2, ⋯, xN,那么:

$$ \Eop_{x \sim X}[\varphi(x)] \approx \frac{1}{N}\sum_{k = 1}^N \varphi(x_k) $$

然而如果分布 fX 并不容易采样,那么这一条路线就有可能出现问题。此时,如果我们有一个容易采样的分布 fY,则我们考虑:

$$ \Eop_{x \sim X}[\varphi(x)] := \int_{\mathbb R} \varphi(x)f_X(x) \d x = \int_{\mathbb R} \varphi(x)\frac{f_X(x)}{f_Y(x)} f_Y(x) \d x = \Eop_{y \sim Y}\left[\frac{f_X(y)}{f_Y(y)}\varphi(y)\right] $$

这样,我们不需要直接采样 fX,仅需要得知 fX 的表达,即可通过采样 fY 得到样本 y1, y2, ⋯, yM 即可作出下述估算:

$$ \Eop_{x \sim X}[\varphi(x)] = \Eop_{y \sim Y}\left[\frac{f_X(y)}{f_Y(y)}\varphi(y)\right] \approx \frac{1}{M}\sum_{k = 1}^M \frac{f_X(y_k)}{f_Y(y_k)}\varphi(y_k) $$

回到原先的问题,我们首先得到:

$$ \frac{\P_\pi(\tau)}{\P_b(\tau)} = \frac{\prod_{(s, a, s') \in \tau} \pi(a \mid s)\Pe(s' \mid s, a)}{\prod_{(s, a, s') \in \tau} b(a \mid s)\Pe(s' \mid s, a)} = \prod_{(s, a) \in \tau} \frac{\pi(a \mid s)}{b(a \mid s)} $$

那么对于任意的 $s_{\rm param} \in \mathcal{S}, a_{\rm param} \in \mathcal{A}$,我们作下述计算:

$$ \begin{aligned} Q^\pi(s_{\rm param}, a_{\rm param}) &= \Eop_{\tau \sim \pi}[G(\tau) \mid s_0 = s_{\rm param}, a_0 = a_{\rm param}] \\ &= \Eop_{\tau \sim b}\left[\frac{\P_\pi(\tau)}{\P_b(\tau)}G(\tau) \middle| s_0 = s_{\rm param}, a_0 = a_{\rm param}\right] \\ &= \Eop_{\tau \sim b}\left[G(\tau)\prod_{(s, a) \in \tau} \frac{\pi(a \mid s)}{b(a \mid s)} \middle| s_0 = s_{\rm param}, a_0 = a_{\rm param}\right] \\ \end{aligned} $$

那么,若在利用行为策略 b 采样得到的轨迹 τ 中,时刻 t 智能体位于状态 st,做出决策 at 转移到状态 st + 1 并获得收益 rt + 1,可以得到其策略评估阶段所采用的更新为:

$$ Q(s_t, a_t) \leftarrow Q(s_t, a_t) + \alpha\left[G_t(\tau)\prod_{k = t}^{+\infty} \frac{\pi(a_k \mid s_k)}{b(a_k \mid s_k)} - Q(s_t, a_t)\right] $$

我们也很容易发现若 π = b,则异轨蒙特卡洛控制退化为同轨蒙特卡洛控制。

函数估计与深度学习

我们可以注意到上述介绍的所有算法,如果直接运用的话可能面临一些困难,这是因为现实问题的状态空间和决策空间都是巨大的,我们很难如实记录每一次迭代时价值函数在每个状态、每个行为上的值,这会需要大量的存储空间。

解决这一问题的最常用方案就是构造函数估计。例如,我们需要拟合一个难以直接计算的函数 f,我们可以使用一系列较小的参数 $\b w$ 构造一个相对容易计算的函数 $f_{\b w}$,尝试通过某种方式调整参数 $\b w$ 以令 $f_{\b w} \approx f$。这样就可以使用 $f_{\b w}$ 来代替 f 使用。

函数估计的方式是多样的,可行的方式包括线性拟合、决策树、最近邻等。当然,目前最为普遍的方式是使用神经网络,而调整参数的方式一般是梯度下降算法。

假设我们现在需要使用神经网络学习策略 π 的状态价值函数 Vπ,我们使用参数 $\b w$ 构建一个函数 $V_{\b w}$。我们可以利用 MSE 来构建一个简单的衡量拟合效果的损失函数:

$$ \mathcal{J}(\b w) := \Eop_{\tau \sim \pi} \left[\frac{1}{|\tau|} \sum_{s \in \tau} (V^\pi(s) - V_{\b w}(s))^2\right] $$

之后我们计算其梯度:

$$ \begin{aligned} \nabla_{\b w}\mathcal{J}(\b w) &= \nabla_{\b w}\Eop_{\tau \sim \pi} \left[\frac{1}{|\tau|} \sum_{s \in \tau} (V^\pi(s) - V_{\b w}(s))^2\right] \\ &= \Eop_{\tau \sim \pi} \left[\frac{1}{|\tau|} \sum_{s \in \tau} \nabla_{\b w}(V^\pi(s) - V_{\b w}(s))^2\right] \\ &= -2\Eop_{\tau \sim \pi} \left[\frac{1}{|\tau|} \sum_{s \in \tau} (V^\pi(s) - V_{\b w}(s))\nabla_{\b w}V_{\b w}(s)\right] \end{aligned} $$

设定学习率为  − 1/2 ⋅ α,即可得到参数 $\b w$ 的更新方式:

$$ \b w \leftarrow \b w - \frac{1}{2}\alpha\nabla_{\b w}\mathcal{J}(\b w) = \b w + \alpha\Eop_{\tau \sim \pi} \left[\frac{1}{|\tau|} \sum_{s \in \tau} ({\color{red} V^\pi(s)} - V_{\b w}(s))\nabla_{\b w}V_{\b w}(s)\right] $$

这里注意上述策略中标红项,显然这里我们需要得到真实值,或者可靠的真实值估计才能更新参数。而由于强化学习非监督学习,这里不存在标签,所以只能通过采样或者估计的方式处理这一项。

如果采用 MC 方法,这一项就可以使用轨迹累计收益:

$$ \b w \leftarrow \b w + \alpha\Eop_{\tau \sim \pi} \left[\frac{1}{|\tau|} \sum_{s \in \tau} ({\color{red} G_t(\tau)} - V_{\b w}(s))\nabla_{\b w}V_{\b w}(s)\right] $$

如果采用 TD 方法,这一项就可以使用 bootstrap 的 TD target:

$$ \b w \leftarrow \b w + \alpha\Eop_{\tau \sim \pi} \left[\frac{1}{|\tau|} \sum_{(s, r, s') \in \tau} ({\color{red} r + \gamma V_{\b w}(s')} - V_{\b w}(s))\nabla_{\b w}V_{\b w}(s)\right] $$

当然如果使用 TD(λ),这一项就是相应的 TD target。

目前基于通过神经网络实现的函数估计,我们可以将 Q learning 转换为深度学习算法 DQN。

Deep Q Network (DQN)

使用神经网络后,Q learning 的基本算法框架不变,依然与上一节中所示一致,仅需要将价值函数 Qπ 替换为一个神经网络 $f_{\b w}: \mathcal{S} \to \mathbb{R}^{|\mathcal{A}|}$。该神经网络结构的语义为,其接受当前的状态 s ∈ 𝒮,输出这个状态下所有可能的行为带来的价值函数估计,即 $f_{\b w}(s) = [Q_{\b w}(s, a_1), Q_{\b w}(s, a_2), \cdots, Q_{\b w}(s, a_{|\mathcal{A}|})]$

此外,基于上述神经网络设计,策略改进过程中利用价值函数生成行为策略的方式在代码上是显然的,只需要将神经网络输出的数组求最大值后直接应用 ε 贪心方式即可,所以不需要另开辟内存存储策略本身。

而策略评估过程则为上一部分所介绍的梯度下降算法:

$$ \b w \leftarrow \b w + \alpha\Eop_{\tau \sim \pi} \left[\frac{1}{|\tau|} \sum_{(s, a) \in \tau} ({\color{red} Q^\pi(s, a)} - Q_{\b w}(s, a))\nabla_{\b w}Q_{\b w}(s, a)\right] $$

故基本的 DQN 算法流程为:

  • 初始化估计价值函数的神经网络 $f_{\b w}$
  • 循环执行下述步骤直到收敛
    • 【策略改进】求取 $a_{\rm max} = \argmax f_{\b w}(s)$ 并利用 ε 贪心方式生成行为策略决策执行
    • 【策略评估】利用梯度更新神经网络参数

至于如何求解梯度,我们