1. Markov Process

我们一步一步来讲解 Markov Decision Process。按顺序,从 Markov Process 到 Markov Reward Process,再到 Markov Decision Process。

1.1 Markov Property

马尔可夫过程(Markov process)的集合就是具有马尔可夫性质(Markov property)的 state 的集合。

马尔可夫性质:某一 state 信息包含了所有相关的 history。只要当前 state 可知,所有的 history 都不再需要,当前 state 就可以决定下一个 state

1.2 State Transition Matrix

对于相邻的两个 state 的转变是具有一定概率的,为了方便计算,将这些概率组成一个矩阵称为 状态转移矩阵,如下图

现在有了 具有马尔可夫性质的 statestate 之间的转移概率,那么,对与 Markov Process 的定义,我们可以使用以下二元组来表示。

这里引用上课时的一个例子:

episode 1和2都是 State 1 为 Class 1 的两个采样。状态转移矩阵 P 刻画了不同状态之间的转移概率。比如当 agent 处于 Class 1 时,有 0.5 的概率转移到 Class 2,同时也有 0.5 的概率转移到 FaceBook。


2. Markov Reward Process

 Markov Reward Process 就是在 Markov Process 的基础上加上了 value

在 Markov Process 的二元组的基础上,定义了 Reward Function 和 Discount Factor,组成四元组。

2.1 Return:Total Discount Reward

我们把 带有衰减因子的总的 Reward 称为 Return,使用 Gt 表示。

当衰减因子  为1时,说明更注重远期利益(far-sighted);而 为0时,说明更加注重“近视”性评估。

2.2 Why discount?

为什么需要引入衰减因子呢?老师在课程中给出以下答案:

  1. 数学表达上方便
  2. 避免了在马尔可夫链上陷入无限循环
  3. 对于未来的不确定性,我们是无法预料的
  4. 符合人类更加注重对短期利益的追求(人类本性是贪心的)

2.3 Value Function

价值函数 v(s) 能够算出在 state s 下得到的 return 的期望

各状态价值的确定是很重要的,RL的许多问题可以归结为求状态的价值问题。因此如何求解各状态的价值,也就是寻找一个价值函数(从状态到价值的映射)就变得很重要了。

计算例子如下(状态转移矩阵见上文):

2.4 Bellman Equation for MRPs

我们把 value function 打开,并且拆分成两部分,一是该状态的即时奖励期望,即时奖励期望等于即时奖励,因为根据即时奖励的定义,它与下一个状态无关;另一个是下一时刻状态的价值期望,可以根据下一时刻状态的概率分布得到其期望

进一步,把期望打开,如下图。

更进一步,使用 矩阵 来简化计算:

2.5 Sloving the Bellman Equation

Bellman Equation 是一个线性等式,可以直接使用线性代数基本知识求解,但这个做法对于大样本时并不高效。


3. Markov Decision Process

Markov Decision Process 是在 Markov Reward Process 的基础上,添加了 行为集合 A。这里的 P 和 R 都与具体的 action a 对应,而不像 Markov Reward Process 那样仅对应于某个state。

3.1 Policy

Policy  是概率的集合或分布,一个 policy 完整定义了 agent 的行为方式,也就是说定义了 agent 在各个 state 下的各种可能的行为方式以及其概率的大小

Policy 仅和当前的状态有关,与 history 无关;同时某一确定的Policy是静态的,与时间无关;但是个体可以随着时间更新策略。

下面左边红色的式子:在执行策略  时,状态从 s 转移至 s'  的概率等于一系列概率的和,这一系列概率指的是在执行当前策略  时,执行某一个行为的概率与该行为能使状态从 s 转移至 s’ 的概率的乘积

下面右边红色的式子:当前状态 s 下,执行某一指定策略得到的即时奖励是该策略下所有可能行为得到的奖励与该行为发生的概率的乘积的和

3.2 Value Function

在 MDPs 中有两类value function:分别是衡量 state 和 action 的 value。

注意 policy 是 静态的、关于整体的 概念,不随状态改变而改变;变化的是在某一个状态时,依据策略可能产生的具体行为,因为具体的行为是有一定的概率的,策略就是用来描述各个不同状态下执行各个不同行为的概率。

3.3 Bellman Expectation Equation

可以使用下一个时刻 t+1 的 state-value 和 action-value 来计算当前的 value。

3.4 Optimal Value Function

最优状态价值函数指的是 在从所有策略产生的状态价值函数中,选取使 state-value 最大的函数

最优行为价值函数指的是 从所有策略产生的行为价值函数中,选取使 action-value 最大的函数。

最优价值函数明确了MDP的最优可能表现,当我们知道了最优价值函数,也就知道了每个状态的最优价值,这时便认为这个MDP获得了解决。

3.5 Optimal Policy

 遵循策略  的 state-value 不小于 遵循策略  的 state-value,则说明策略  优于 策略 

定理 对于任何MDP,下面几点成立:

  1. 存在一个最优策略,比任何其他策略更好或至少相等;
  2. 所有的最优策略有相同的最优价值函数;
  3. 所有的最优策略具有相同的行为价值函数。

3.6 Finding an Optimal Policy

可以通过最大化 最优行为价值函数 来找到最优的策略

对于任何MDP问题,总存在一个确定性的最优策略;同时如果我们知道最优行为价值函数,则表明我们找到了最优策略。

3.7 Bellman Optimality Equation

一个 状态的最优价值 等于从该状态出发采取的所有行为产生的行为价值中最大的那个行为价值

在某个状态s下,采取某个 行为的最优价值 由2部分组成,一部分是离开状态 s 的即刻奖励,另一部分则是所有能到达的状态 s’ 的最优状态价值按出现概率求和


参考:David Silver 强化学习课程

【深度强化学习】马尔可夫决策过程(Markov Decision Process, MDP)相关推荐

  1. 马尔可夫决策过程 Markov decision process MDP, 连续时间Markov chain, CMDP(全)

    引言 在概率论及统计学中,马尔可夫过程(英语:Markov process)是一个具备了马尔可夫性质的随机过程,因为俄国数学家安德雷·马尔可夫得名.马尔可夫过程是不具备记忆特质的(memoryless ...

  2. 马尔可夫决策过程(Markov Decision Process)学习笔记

    Markov Decision Process学习笔记 马尔可夫决策过程(Markov Decision Process)学习笔记 1. 基本的概率定义 2. 如何理解状态SSS和动作AAA 3. 策 ...

  3. 强化学习--马尔可夫决策过程学习笔记

    本文学习内容参照视频 1.强化学习 基本概念:强化学习是机器学习中的一个领域,强调如何基于环境而行动,以取得最大化的预期利益.其灵感来源于心理学中的行为主义理论,即有机体如何在环境给予的奖励或惩罚的刺 ...

  4. 强化学习 马尔可夫决策过程 有限马尔可夫决策 部分可观测马尔可夫决策

    目录 一.总体说明 二.组成要素 2.1 S-状态空间集 2.2 A-动作空间集 2.3 P-状态转移概率 2.4 奖励函数 三.状态转移 一.总体说明 马尔可夫决策(MDP)是强化学习中智能体与环境 ...

  5. 强化学习---马尔可夫决策过程 MP MRP MDP

    1.马尔可夫过程(MP) 1.1马尔可夫性质 马尔可夫性质(Markov property)是指一个随机过程在给定现在状态及所有过去状态情况下,其未来状态的条件概率分布仅依赖于当前状态.我们假设一个离 ...

  6. 强化学习-马尔可夫决策过程

    目录 2.1 基本概念 2.2 随机性的来源 2.3 回报与折扣回报 2.3.1 回报 2.3.2 折扣回报 2.3.3 回报中的随机性 2.3.4 有限期 MDP 和无限期 MDP 2.4 价值函数 ...

  7. 强化学习-马尔可夫决策过程(MDP)

    强化学习,是机器学习领域中,除监督学习.非监督学习之外,第三种学习范式.在强化学习中,智能体在环境中通过执行各种动作来与之交互,做完每个动作后都会得到一个环境反馈的奖励值,智能体的目标就是通过一系列的 ...

  8. David Silver强化学习笔记-Lecture 2: Markov Decision Processes

    Lecture 2: Markov Decision Processes(马尔科夫决策过程) 一.Marokov Process (一)Introduction Introduction to MDP ...

  9. 马尔可夫决策过程(Markov Decision Process, MDP)

    马尔可夫决策过程(Markov Decision Processes,MDPs) MDPs 简单说就是一个智能体(Agent)采取行动(Action)从而改变自己的状态(State)获得奖励(Rewa ...

最新文章

  1. spring boot实战(第四篇)分散配置
  2. 人生苦短,Let's Go!
  3. OpenCV兼容性测试的实例(附完整代码)
  4. 计算机微机原理及接口技术实训室,《微机原理与接口技术》课程实验报告.doc...
  5. echarts地图省市坐标
  6. Awvs 12.x安装及使用教程
  7. 如何在互联网上寻找免费电子书?(其二)
  8. 旋动机器人_旋转跳跃还会搬砖 这款机器人简直逆天
  9. pandas学习task11综合任务
  10. 网页截图及TDK抓取
  11. html制作钟表盘,jquery+html5制作超酷的圆盘时钟表
  12. Python写的Web spider(网络爬虫)
  13. 轮循与连接-- 细雪之舞
  14. 超酷震撼 HTML5/CSS3动画应用及源码
  15. 索尼发布新款VR头盔与FB竞争,暂未公布定价
  16. 微信JS-SDK录音的speex音频文件转换为wav
  17. 回顾2021,展望2022,静Yu的万粉成长之路
  18. [转载]坐标系统与投影变换
  19. 手风琴效果——原生JS
  20. 培训python的学校

热门文章

  1. z77用m2固态_Z77也能用M.2固态
  2. html5旋转的向日葵动画js特效
  3. JavaFX桌面应用开发-菜单栏-MenuBar、Menu 、MenuItem
  4. 软件技术基础知识复习
  5. 网络安全:大数据问题
  6. java 堆栈 pop_为什么Joshua Bloch在有效的java中减少pop方法中堆栈的“大小”值?...
  7. 美通企业日报 | 2020年中国薪酬预期涨幅6.5%;巴西将对中国游客免签
  8. 开课吧 Linux与基础系统编程
  9. OSPF邻居震荡抑制
  10. 什么是ghost?有什么作用?原理是什么?怎样使用?