马尔可夫决策过程

決策模型
(重定向自马尔科夫过程

在数学中,马尔可夫决策过程(英语:Markov decision processMDP)是离散时间随机控制过程。 它提供了一个数学框架,用于在结果部分随机且部分受决策者控制的情况下对决策建模。 MDP对于研究通过动态规划解决的优化问题很有用。 MDP至少早在1950年代就已为人所知;[1] 一个对马尔可夫决策过程的核心研究是 罗纳德·霍华德英语Ronald A. Howard于1960年出版的《动态规划和马尔可夫过程》[2]。 它们被用于许多领域,包括机器人学自动化经济学制造业。 MDP的名称来自俄罗斯数学家安德雷·马尔可夫,因为它们是马尔可夫链的推广。

在每个时间步骤中,随机过程都处于某种状态,决策者可以选择在状态下可用的动作。 该随机过程在下一时间步骤会随机进入新状态,并给予决策者相应的回馈

随机过程进入新状态的概率受所选操作影响。 具体来说,它是由状态变换函数给出的。 因此,下一个状态取决于当前状态和决策者的动作。 但是给定,它条件独立于所有先前的状态和动作; 换句话说,MDP的状态变换满足马尔可夫性质

马尔可夫决策过程是马尔可夫链的推广,不同之处在于添加了行动(允许选择)和奖励(给予动机)。反过来说,如果每个状态只存在一个操作和所有的奖励都是一样的,一个马尔可夫决策过程可以归结为一个马尔可夫链。

定义

编辑
 
一个简单的MDP示例,包含三个状态(绿色圆圈)和两个动作(橙色圆圈),以及两个奖励(橙色箭头)

马尔可夫决策过程是一个4元组 ,其中:

  •  是状态空间的集合,
  •  是动作的集合,也被称为动作空间(比如说 是状态 中可用的动作集合),
  •   时刻 状态下的动作 导致 时刻进入状态 的概率,
  •  状态 经过动作 转换到状态 后收到的即时奖励(或预期的即时奖励)。

状态和行动空间可能是有限的,也可能是无限的。一些具有可数无限状态和行动空间的过程可以简化为具有有限状态和行动空间的过程。[3]

策略函数 是从状态空间( )到动作空间( )的(潜在概率)映射。

优化目标

编辑

马尔可夫决策过程的目标是为决策者找到一个好的“策略”:一个函数 ,它指定决策者在状态 时将选择的动作 。一旦以这种方式将马尔可夫决策过程与策略组合在一起,就可以确定在每个状态的动作,并且生成的组合行为类似于马尔可夫链(因为在状态 的动作都由 决定, 简化为 ,成为一个马尔可夫转移矩阵)。

目标是选择一个策略 ,使随机奖励的累积函数最大化,通常是在潜在的无限范围内的预期贴现总和:

 (我们选择 也就是策略给出的动作)。并且期望为 

其中 是折现因子,满足 ,通常接近于1(例如,对于贴现率r,存在 )。较低的折扣率促使决策者倾向于尽早采取行动,而不是无限期地推迟行动。

使上述函数最大化的策略称为最优策略,通常用 表示。一个特定的MDP可能有多个不同的最佳策略。由于马尔可夫决策过程的性质,可以证明最优策略是当前状态的函数,就像上面所叙述的那样。

模拟模型

编辑

在许多情况下,很难明确地表示转移概率分布 。在这种情况下,可以使用模拟器通过提供来自转换发行版的示例来隐式地对MDP建模。隐式MDP模型的一种常见形式是情景环境模拟器,它可以从初始状态启动,生成后续状态,并在每次接收到操作输入时给予奖励。通过这种方式,我们可以模拟出目标经过的状态、采取的行动以及获得的奖励(统称“轨迹”)。

另一种形式的模拟器是生成模型,即能够生成下一个状态的样本并提供所有状态和行动奖励的单步骤模拟器。[4]在用伪代码表示的算法中, 通常用来表示生成模型。例如,表达式 可以表示从生成模型中取样的动作,其中  是当前状态和动作,  是下一步的状态和奖励。与情景模拟器相比,生成模型的优势在于它可以从任何状态获取数据,而不仅仅是在轨迹中遇到的状态。

这些模型类形成了信息内容的层次结构:显式模型通过从分布中采样简单地生成生成模型,并且生成模型的重复应用生成轨迹模拟器。在相反的方向上,只能通过回归分析研究近似模型。可用于特定MDP的模型类型在确定哪种解决方案算法合适方面起着重要作用。例如,下一节中描述的动态规划算法需要一个显式模型,而蒙特卡洛树搜寻需要一个生成模型(或可以在任何状态下复制的情景模拟器),而大多数强化学习算法只需要一个轨迹模拟器 。

算法

编辑

可以通过各种方法(例如动态规划)找到具有有限状态和动作空间的MDP的解决方案。本节中的算法适用于具有有限状态和动作空间并明确给出转移概率和奖励函数的MDP,但基本概念可以扩展到处理其他问题类别,例如使用函数趋近。

为有限状态和动作MDP计算最优策略的标准算法系列需要存储两个按状态索引的数列:第一个数列是 ,用来储存实数,以及策略 ,用来存动作。在算法结束时, 将存储每一个状态时的解决方案,而 将存储从状态 遵循该解决方案获得的奖励的折扣总和(平均)。

 
 

它们的顺序取决于你所采用的算法的变体,可以一次或逐个状态地对所有状态执行它们,并且对某些状态比其他状态更频繁。 只要没有状态被永久排除在任何一个步骤之外,算法最终将得出正确的解决方案。[5]

著名的变体

编辑

数值迭代

编辑

数值迭代也称为反向归纳,不使用 函数.相反, 的值在需要时在 内计算。 将 的计算代入 的计算得出组合步骤:

 

其中 是迭代数,值迭代从  开始,作为价值函数的猜测。

参见

编辑

参考文献

编辑
  1. ^ Bellman, R. A Markovian Decision Process. Journal of Mathematics and Mechanics. 1957, 6 (5): 679–684 [2021-04-30]. JSTOR 24900506. (原始内容存档于2021-04-30). 页面存档备份,存于互联网档案馆
  2. ^ Howard, Ronald A. Dynamic Programming and Markov Processes (PDF). The M.I.T. Press. 1960 [2021-04-30]. (原始内容存档 (PDF)于2011-10-09). 页面存档备份,存于互联网档案馆
  3. ^ Wrobel, A. On Markovian Decision Models with a Finite Skeleton. Mathematical Methods of Operations Research (ZOR). 1984, 28 (February): 17–27. S2CID 2545336. doi:10.1007/bf01919083. 
  4. ^ Kearns, Michael; Mansour, Yishay; Ng, Andrew. A Sparse Sampling Algorithm for Near-Optimal Planning in Large Markov Decision Processes. Machine Learning. 2002, 49 (193–208): 193–208. doi:10.1023/A:1017932429737 . 
  5. ^ Reinforcement Learning: Theory and Python Implementation. Beijing: China Machine Press. 2019: 44. ISBN 9787111631774. 
  • Yosida, K. “Functional Analysis”, Ch XIII, § 3, Springer-Verlag, 1968. ISBN 3-540-58654-7
  • Ribarič.M. and I.Vidav, “An inequality for concave functions.” Glasnik Matematički 8 (28), 183–186 (1973).

外部链接

编辑