在大多是强化学习(reinforcement learning RL)问题中,环境的model都是未知的,也就无法直接做动态规划。一种方法是去学MDP,在这个系列的理解强化学习中的策略迭代和值迭代这篇文章中有具体思路。但这种做法还是会存在很多问题,就是在sample过程中会比较麻烦,如果你随机sample的话就会有某些state你很难sample到,而按照某种策略sample的话,又很难得到真实的转移概率。一旦你的model出现了问题,值迭代和策略迭代都将会出现问题。

  于是就有了Model-free Reinforcement Learning,直接与环境交互,直接从数据中学到model

Model-free Reinforcement Learning

  Model-free Reinforcement Learning需要从数据中estimatevalue是多少(state or state-action pair),接下来拿到cumulative reward的期望,得到这些case之后,再去做model-freecontrol,去optimal当前的policy使得value function最大化。

  那model-freevalue function如何来做prediction呢?

  在model-freeRL中我们无法获取state transitionreward function,我们仅仅是有一些episodes。之前我们是拿这些episodesmodel,在model free的方法中拿这些episode直接学value function 或者是policy,不需要学MDP。这里面两个关键的key steps:1. estimate value function. 2. optimize policy.

Value Function Estimate

  In model-based RL (MDP), the value function is calculated by dynamic programming

vπ(s)=Eπ[Rt+1+γvπ(St+1)∣St=s]v_{\pi}(s)=\mathbb{E_{\pi}}[R_{t+1}+\gamma v_{\pi}(\mathcal{S_{t+1}})|\mathcal{S_{t}=s}] vπ​(s)=Eπ​[Rt+1​+γvπ​(St+1​)∣St​=s]

  在model free的方法中,我们不知道state transition,由此无法计算上述等式的期望。

Monte-Carlo Methods

  Monte-Carlo methods are a broad class of computational algorithms that rely on repeated random sampling to obtain numerical results. For example, to calculate the circle’s surface. As show in following figure:

  对上述方框中均匀撒上一些点,然后用如下等式计算即可:

Circle Surface=Square Surface×points in circlepoints in total\text{Circle Surface} = \text{Square Surface} \times \frac{\text{ points in circle}}{\text{points in total}} Circle Surface=Square Surface×points in total points in circle​

Monte-Carlo Value Estimation

  我们有很多episodes,基于这些episode,我们去计算total discounted reward

Gt=Rt+1+γRt+2+…=∑k=0∞γkRt+k+1G_{t}=R_{t+1}+\gamma R_{t+2}+\ldots=\sum_{k=0}^{\infty} \gamma^{k} R_{t+k+1} Gt​=Rt+1​+γRt+2​+…=k=0∑∞​γkRt+k+1​

  Value functionexpected return可表示为如下数学形式:

Vπ(s)=E[Gt∣st=s,π]≈1N∑i=1NGi(i)V^{\pi}(s) = \mathbb{E} [G_{t}|s_{t}=s,\pi] \\ \approx \frac{1}{N} \sum_{i=1}^{N} G_{i}^{(i)} Vπ(s)=E[Gt​∣st​=s,π]≈N1​i=1∑N​Gi(i)​

  上述方法可总结为两步:1. 使用policy π\piπ从statesss开始采样 NNN 个episodes 。2. 计算平均累计奖励(the average of cumulative reward )。可以看出来,这种基于采样的方法,直接一步到位,计算value而不需要计算MDP中的什么状态转移啥的。

  上述思想更加细致、更具体的方法可用如下形式表示:

  • Sample episodes of policy π\piπ。
  • Every time-step ttt that state sss is visited in an episode
    • Increment counter N(s)←N(s)+1N(s) \leftarrow N(s) +1N(s)←N(s)+1
    • Increment total return S(s)←S(s)+GtS(s) \leftarrow S(s) +G_{t}S(s)←S(s)+Gt​
    • Value is estimated by mean return V(s)=S(s)/N(s)V(s)=S(s)/N(s)V(s)=S(s)/N(s)
    • By law of large numbers V(s)←VπV(s) \leftarrow V^{\pi}V(s)←Vπ as N(s)→∞N(s) \rightarrow \inftyN(s)→∞。
Incremental Monte-Carlo Updates
  • Update V(s)V(s)V(s) incrementally after each episode
  • For each state StS_{t}St​ with cumulative return GtG_{t}Gt​

N(St)←N(St)+1V(St)←V(St)+1N(St)(Gt−V(St))\begin{array}{l} {N\left(S_{t}\right) \leftarrow N\left(S_{t}\right)+1} \\ {V\left(S_{t}\right) \leftarrow V\left(S_{t}\right)+\frac{1}{N\left(S_{t}\right)}\left(G_{t}-V\left(S_{t}\right)\right)} \end{array} N(St​)←N(St​)+1V(St​)←V(St​)+N(St​)1​(Gt​−V(St​))​

  • For non-stationary problems (i.e. the environment could be varying over time), it can be useful to track a running mean, i.e. forget old episodes

  如果环境的state transitionreward function一直在变,我们把这个环境叫做non-stationary,环境本身肯定叫做stochastic环境。但是如果分布不变,叫做statically environment,但是环境本身的分布会发生变化的话,就需要去忘掉一些老的episode,如果用平均的方法去做的话,老的episode和新的episode一样,它就忘不掉老的episode

V(St)←V(St)+α(Gt−V(St))V(S_{t}) \leftarrow V(S_{t}) + \alpha (G_{t} - V(S_{t})) V(St​)←V(St​)+α(Gt​−V(St​))

  Monte-Carlo Value Estimation的一些特点:

  1. MC methods learn directly from episodes of experience
  2. MC is model-free: no knowledge of MDP transitions / rewards
  3. MC learns from complete episodes: no bootstrapping (discussed later)
  4. MC uses the simplest possible idea: value = mean return
  5. Caveat: can only apply MC to episodic MDPs i.e., all episodes must terminate

Temporal-Difference Learning

  TD的方法中引入对未来值函数的估计:

Gt=Rt+1+γRt+2+…=Rt+1+γV(St+1)G_{t}=R_{t+1}+\gamma R_{t+2}+\ldots=R_{t+1}+\gamma V(S_{t+1}) Gt​=Rt+1​+γRt+2​+…=Rt+1​+γV(St+1​)

V(St)←V(St)+α(Rt+1+γV(St+1)−V(St))V(S_{t}) \leftarrow V(S_{t}) + \alpha(R_{t+1}+\gamma V(S_{t+1}) - V(S_{t})) V(St​)←V(St​)+α(Rt+1​+γV(St+1​)−V(St​))

  TD的算法主要有以下四个特点:

  1. TD methods learn directly from episodes of experience
  2. TD is model-free: no knowledge of MDP transitions / rewards
  3. TD learns from incomplete episodes, by bootstrapping
  4. TD updates a guess towards a guess
Monte Carlo vs. Temporal Difference

  Monte Carlo方法和Temporal Difference方法对比如下:

  • The same goal: learn VπV_{\pi}Vπ​ from episodes of experience under policy π\piπ。

  • Incremental every-visit Monte-Carlo

    • Update value V(St)V(S_{t})V(St​) toward actual return GtG_{t}Gt​。

V(St)←V(St)+α(Gt−V(St))V(S_{t}) \leftarrow V(S_{t}) + \alpha(G_{t}-V(S_{t})) V(St​)←V(St​)+α(Gt​−V(St​))

  • Simplest temporal-difference learning algorithm: TD

    • Update value V(St)V(S_{t})V(St​) toward estimated return Rt+1+γV(St+1)R_{t+1} + \gamma V(S_{t+1})Rt+1​+γV(St+1​)。
    • TD Target:Rt+1+γV(St+1)R_{t+1} + \gamma V(S_{t+1})Rt+1​+γV(St+1​);
    • TD error:δ=Rt+1+γV(St+1)−V(St)\delta = R_{t+1} + \gamma V(S_{t+1}) - V(S_{t})δ=Rt+1​+γV(St+1​)−V(St​)
Advantages and Disadvantages of MC vs. TD
  • TD can learn before knowing the final outcome

    • TD can learn online after every step
    • MC must wait until end of episode before return is known
  • TD can learn without the final outcome

    • TD can learn from incomplete sequences
    • MC can only learn from complete sequences
    • TD works in continuing (non-terminating) environments
    • MC only works for episodic (terminating) environments
Bias/Variance Trade-Off
  • Return GtG_{t}Gt​ is unbiased estimate of Vπ(St)V^{\pi}(S_{t})Vπ(St​)。

  基于当前的策略去采样,然后计算平均值,这样得到的估计是无偏估计。

  • TD target Rt+1+γV(St+1)R_{t+1} + \gamma V(S_{t+1})Rt+1​+γV(St+1​) is biased estimate of VπV^{\pi}Vπ。

  TD target中由于存在对未来的估计V(St+1)V(S_{t+1})V(St+1​),这个估计如果是非常准确的,那TD target也是unbiased estimate,但是由于V(St+1)V(S_{t+1})V(St+1​)很难估计准确,所以是 biased estimate

  • TD target is of much lower variance than the return

  TD target的方法一般比Return GtG_{t}Gt​要小。Return GtG_{t}Gt​ depends on many random actions, transitions and rewards;TD target depends on one random action, transition and reward

Advantages and Disadvantages of MC vs. TD (2)
  • MC has high variance, zero bias

  MC方法具有好的 convergence properties (even with function approximation) 并且 Not very sensitive to initial value 但是需要 Very simple to understand and use。需要多采样去降低variance

  • TD has low variance, some bias

  TD的方法 Usually more efficient than MC ,TD converges to Vπ(St)V^{\pi}(S_{t})Vπ(St​),but not always with function approximation。并且 More sensitive to initial value than MC。

n-step model-free prediction

  For time constraint, we may jump n-step prediction section and directly head to model-free control

  • Define the n-step return

Gtn=Rt+1+γRt+2+⋯+γn−1Rt+n+γnV(St+n)G_{t}^{n} = R_{t+1} + \gamma R_{t+2} + \cdots +\gamma^{n-1}R_{t+n} + \gamma^{n} V(S_{t+n}) Gtn​=Rt+1​+γRt+2​+⋯+γn−1Rt+n​+γnV(St+n​)

  • n-step temporal-difference learning

V(St)←V(St)+α(Gt(n)−V(St))V(S_{t}) \leftarrow V(S_{t}) + \alpha(G_{t}^{(n)} - V(S_{t})) V(St​)←V(St​)+α(Gt(n)​−V(St​))

  有了值函数之后,我们就需要去做策略改进了。

我的微信公众号名称:深度学习与先进智能决策
微信公众号ID:MultiAgent1024
公众号介绍:主要研究分享深度学习、机器博弈、强化学习等相关内容!期待您的关注,欢迎一起学习交流进步!

手把手教你强化学习 (六) 强化学习中的无模型预测相关推荐

  1. 【手把手教你】使用Logistic回归、LDA和QDA模型预测指数涨跌

    1 引言 机器学习(Machine Learning)是人工智能(AI)的重要组成部分,目前已广泛应用于数据挖掘.自然语言处理.信用卡欺诈检测.证券市场分析等领域.量化投资作为机器学习在投资领域内最典 ...

  2. 强化学习4——无模型预测(蒙特卡洛法和TD法)

    文章目录 强化学习--无模型预测与控制 无模型的概念 无模型预测 蒙特卡洛法 基本蒙特卡洛 改进增量MC更新算法 动态规划(DP)与蒙特卡洛(MC)的区别 Temporal Difference(TD ...

  3. 报名 | NVIDIA线下交流会:手把手教你搭建TensorFlow Caffe深度学习服务器

    7月21日(周六)下午14:30,量子位与NVIDIA英伟达开发者社区联合举办线下交流会,拥有丰富一线开发经验的NVIDIA开发者社区经理Ken He,将手把手教你搭建TensorFlow & ...

  4. 干货:手把手教你在音频分类DCASE2017比赛中夺冠

    这是一篇旧闻了. 2017-09-23 00:00无人驾驶 最新消息:来自英国萨里大学的团队徐勇博士等夺得DCASE2017 challenge比赛冠军.战胜来自CMU, New York Unive ...

  5. 手把手教你把代码丢入github 中

    手把手教你把代码丢入github 中 作为一个小运维一步步教你们怎么把代码放入到github 中 首先呢我们下载一个git的客户端 https://git-scm.com/downloads/  下载 ...

  6. 基于深度强化学习的机器人运动控制研究进展 | 无模型强化学习 | 元学习

    1.基于深度强化学习的机器人运动控制研究进展 1.1 深度强化学习 1.1.1 强化学习简介: 强化学习(Reinforcement Learning, RL)利用试错机制与环境进行交互,旨在通过最大 ...

  7. 手把手教你从零搭建深度学习项目(附链接)

    简介: 在学习了有关深度学习的理论之后,很多人都会有兴趣尝试构建一个属于自己的项目.本文将会从第一步开始,告诉你如何解决项目开发中会遇到的各类问题. 本文由六大部分组成,涵盖深度学习 ( DL ) 项 ...

  8. 手把手教你从零搭建深度学习项目(可下载PDF版)

    源 | 机器之心   作者 | Jonathan Hui 点我调转公号推荐 下载方式:后台回复 20180531 在学习了有关深度学习的理论之后,很多人都会有兴趣尝试构建一个属于自己的项目.本文将会从 ...

  9. 手把手教你学51单片机-如何学习单片机

    大多数大学生之所以最后变的平庸,不是因为脑子多么笨,也不是全怪自己贪玩不上进,只是没有一个好的领路人,许多学校可能挂着导师的名头,但是多数是挂羊头卖狗肉或者是干脆不管.最后等大学生毕业之后,那些所谓的 ...

  10. 手把手教你用Python求均值、中值和众数

    导读:数据科学入门:集中趋势度量--均值.中值和众数. 作者:保罗·戴特尔(Paul Deitel).哈维·戴特尔(Harvey Deitel) 来源:大数据DT(ID:hzdashuju) 本文我们 ...

最新文章

  1. 接口级故障的应对方法
  2. 专访闪送联合创始人于红建:要继续深耕国内市场
  3. 解决启动mysql.exe闪退问题
  4. 基于嵌入式linux 的车载定位系统设计,基于嵌入式Linux的GPS车载定位导航系统设计...
  5. lamaba中reduce方法将集合中的所有整数相加,并返回其总和
  6. 使用pp架构形成计算机集群请求的地址无效_干货!史上最详细脑图《大型网站技术架构》...
  7. Vue style里面使用@import引入外部css, 作用域是全局的解决方案
  8. html网页设计要点,网站交互设计的8个要点
  9. 2021高通人工智能应用创新大赛--创新赛道-决赛阶段小结
  10. Elasticsearch 嵌套类型nested
  11. [Swust OJ 166]--方程的解数(hash法)
  12. ASP.NET Core 运行原理解剖[2]-Hosting补充之配置介绍
  13. TimusOJ - 1225.Flags 1119.Metr 1009.K-based Numbers (DP简单题)
  14. 上传MacOS APP到AppStore
  15. 提示错误Cannot read properties of null (reading ‘value‘)
  16. 图像分类篇——AlexNet详解
  17. 未来的你会感谢现在的自己-首发篇
  18. 接手1号店的京东 更看重与沃尔玛的合作
  19. 2019年广东工业大学腾讯杯新生程序设计竞赛(同步赛)E-缺席的神官
  20. RuntimeError: invalid argument 0: Sizes of tensors must match except in dimension 1.

热门文章

  1. 解释HTTP中Get和Post。它们有什么区别,哪个使用时更加安全?
  2. VBOX+WINDOWSSERVER208R2实现虚拟机内FTP服务器搭建
  3. python自动登录百度_Python实现自动登录百度空间的方法
  4. 修改Cocos2d-xV3.17.2项目模板的编译路径
  5. 游戏筑基开发之深度优先搜索算法(C语言)
  6. filter-policy应用实验(华为设备)
  7. BGP选路规则和负载分担
  8. MySQL存储过程(二)——存储过程基本使用
  9. Linux之scsi网络存储
  10. 动态规划——Russian Doll Envelopes