引用:https://blog.csdn.net/mmc2015/article/details/51247677

https://blog.csdn.net/coffee_cream/article/details/58034628

https://blog.csdn.net/heyc861221/article/details/80129310

The most important feature distinguishing reinforcement learning from other types of learning is that it uses training information that evaluates the actions taken rather than instructs by giving correctactions. This is what creates the need for active exploration, for an explicit search for good behavior。

描述

假设有个老虎机并排放在我们面前,我们首先给它们编号,每一轮,我们可以选择一个老虎机来按,同时记录老虎机给出的奖励. 假设各个老虎机不是完全相同的,经过多轮操作后,我们可以勘探出各个老虎机的部分统计信息,然后选择那个看起来奖励最高的老虎机. 在多臂赌博机中,我们把老虎机称为臂.

随机式(stochastic bandit): 臂的奖励服从某种固定的概率分布

Multi-armed bandit原本是从赌场中的多臂老虎机的场景中提取出来的数学模型,其中 arm 指的是老虎机(slot machine)的拉杆,bandit 是多个拉杆的集合,bandit=arm1,arm2,……,armk。每个 bandit setting 对应一个回报函数(reward function),现在需要经过多次的尝试,来评估每个 bandit 的reward,这个问题的目标是如何最大化总的回报。
  显然,在这个问题中一共包含 k 个 actions,每个 action 都有一个期望的或者平均的 reward,称为是这个action的 value。记时间 t 选择的行为为At,其相对应的reward为Rt,任意一个行为a的value记为 q∗(a),因此,a

期望的 reward 为:

q∗(a)=E[Rt|At=a]

  显然,如果我们知道了每个 action 的 value,只有每次选择具有最大 value 的 action 就可以解决这个问题,这里令action a在时间 t 的估计 value 为 Qt(a)≈q∗(a)。
  如果在实验中,在当前时刻评估的value值最大的action就称为是greedy actions,如果在下个时刻选择的是 greedy actions,那么这次选择就可以视为是 exploiting 当前已有的信息,相反如果在下个时刻选择的是 non-greedy actions,那么这次选择就可以视为是 exploring。下面将会介绍几种平衡 exploit 和 explore 的方法。

2、Action-Value Methods

  对一个行为 a

,最简单的评估方法就是用行为a

所返回的所有rewards进行平均,即:

Q∗(a)≐sum of rewards when a taken prior to tnumber of times a taken prior to t=∑t−1i=1Ri⋅lAi=a∑t−1i=1lAi=a

其中,

lpredicate={1,0,predicate is trueotherwise

  若分母为0则令Q∗(a)为一个默认的值。根据大数理论,当分母趋于无穷时,则 Qt(a) 趋近于 q∗(a),我们将这种估计action values的方法称为是 sample−average 方法。
  最简单的策略就是每个时间t都选择当前的greedy actions,这种方法称为是greedy action selection method,该方法的选择策略可以记为是:

At≐argmaxaQt(a)

  可以看出,greedy action selection 每次都只会对当前的信息进行开发,而不会探索新的信息,对这种方法最简单的改进方式就是引入一个小的变量 ε,每次选择actions时,以 1−ε 的概率选择 greedy acitons,以 ε 的概率从所有actions中以相等的概率随机选择,这种方法称为是 ε−greedy method,这种方法的优点在于在无限的时间下所有的 actions 都有机会被选择过,因此所有的 Qt(a) 都会趋近于 q∗(a) 。

3、Incremental Implementation(增量式实现)

  上一节介绍的方法是将所有的历史信息全部记录下来然后求平均,不仅耗费内存也浪费时间,这一节介绍的增量式的方法仅耗费固定大小的内存,并且每个时间都可以进行更新。
  为了简化符合,这里只关注一个action,令 Ri

代表第i次选择这个 action 获得的 reward,Qn 代表这个action被选择了 n−1

次之后评估的 value 值,则有下面的等式成立:

  上式中最后的更新规则可以写作是:

NewEstimate←OldEstimate+StepSize [Target–OldEstimate]

  其中,表达式 [Target–OldEstimate] 是估计中的 error 项,可以看出在增量式学习方法中的 StepSize项为 1/n,是随时间不断变化的,之后会用 α 或 αt(a) 来代表 step-size 参数。
  算法的伪代码为:

4、针对非固定的问题

  之前考虑的都是一个不变的环境,但如果bandit随时间不断变化该如何处理呢?这时有必要将当前的rewards赋予更高的权重,而过去的赋予较小的权重,最常用的实现方法就是使用一个固定的step-size参数,例如将上一节中的更新规则改为:

Qn+1≐Qn+α[Rn−Qn]

  其中,α∈(0,1] 是个常数。对该式进行分解就会得到

  因为 (1−α)n+∑ni=1α(1−α)n−i=1

, 因此可以将上式视为是一种加权平均。由于 1−α<1,因此 i 越大赋予 Ri 的权重越大。通常将这种更新方式称作是 exponential, recency−weighted average

5、优化的初始值

  前面介绍的几种方法都与初始的action-value的评估值 Q1(a)

有关,在统计学方面这称为是“有偏的(biased)”。对于 sample-average 方法,这种 bias 在所有的 actions 都被最少选择过一次之后会消失;而对于具有常量 α 的方法,这种 bias 是一直存在的。但是这种 bias 也不常常是有坏处的,也可以被利用起来,例如我们考虑 10-armed testbed 的问题,如果所有的初始值全部设为 0,第一个被随机选择的action只要回报不是0一定会成为其中的 greedy action,但如果所有的初始值全部设为5,若初始选择的action的回报小于5

则它的估计值就会降低,从而促进算法进行explore的过程。

6、Upper-Confidence-Bound Action Selection

UCB算法全称是Upper Confidence Bound(置信区间上界),它的算法步骤如下[4]:

  • 初始化:先对每一个臂都试一遍;
  • 按照如下公式计算每个臂的分数,然后选择分数最大的臂作为选择:

图3 UCB算法

  • 观察选择结果,更新t和Tjt。其中加号前面是这个臂到目前的收益均值,后面的叫做bonus,本质上是均值的标准差,t是目前的试验次数,Tjt是这个臂被试次数。

这个公式反映一个特点:均值越大,标准差越小,被选中的概率会越来越大,同时哪些被选次数较少的臂也会得到试验机会。

  在action选择过程中,greedy actions是当前认为最优的行为,但是最优的行为可能并非是它们,因此就需要exploration过程,ε

-greedy action selection强制使non-greedy的行为也有机会被选择,但这并不是最优的exploration方式,最好的方式应该是将每个action的评估值和不确定性值均考虑在内,这种有效的选择规则为:

At≐argmaxa[Qt(a)+clogtNt(a)−−−−−√]

  其中 log 指的是自然对数,Nt(a) 指的是行为a在时间t已经被选择的次数,常数 c>0 代表的是赋予exploration的权重。
  这种选择方式称为是upper confidence bound (UCB) action selection,选择函数中的平方根项代表了对行为 a 的不确定性,分子中对时间t取自然对数是为了使分子的增长速度减慢。

Softmax 函数的特点和作用

----------

因为这里不太方便编辑公式,所以很多公式推导的细节都已经略去了,如果对相关数学表述感兴趣的话,请戳这里的链接Softmax的理解与应用 - superCally的专栏 - 博客频道 - http://CSDN.NET

----------

Softmax在机器学习中有非常广泛的应用,但是刚刚接触机器学习的人可能对Softmax的特点以及好处并不理解,其实你了解了以后就会发现,Softmax计算简单,效果显著,非常好用。

我们先来直观看一下,Softmax究竟是什么意思

我们知道max,假如说我有两个数,a和b,并且a>b,如果取max,那么就直接取a,没有第二种可能

但有的时候我不想这样,因为这样会造成分值小的那个饥饿。所以我希望分值大的那一项经常取到,分值小的那一项也偶尔可以取到,那么我用softmax就可以了 现在还是a和b,a>b,如果我们取按照softmax来计算取a和b的概率,那a的softmax值大于b的,所以a会经常取到,而b也会偶尔取到,概率跟它们本来的大小有关。所以说不是max,而是 Soft max 那各自的概率究竟是多少呢,我们下面就来具体看一下

定义

假设我们有一个数组,V,Vi表示V中的第i个元素,那么这个元素的Softmax值就是

也就是说,是该元素的指数,与所有元素指数和的比值

这个定义可以说非常的直观,当然除了直观朴素好理解以外,它还有更多的优点

Chapter 2 multi-armed Bandit相关推荐

  1. 强化学习应用于组合优化问题_如何将强化学习应用于现实生活中的计划问题

    强化学习应用于组合优化问题 by Sterling Osborne, PhD Researcher 作者:斯特林·奥斯本(Sterling Osborne),博士研究员 如何将强化学习应用于现实生活中 ...

  2. 详解GCN、GAT、凸优化、贝叶斯、MCMC、LDA

    如果你准备发AI方向的论文,或准备从事科研工作或已在企业中担任AI算法岗的工作.那么我真诚的向大家推荐,贪心学院<高阶机器学习研修班>,目前全网上应该找不到类似体系化的课程.课程精选了四大 ...

  3. 工作之后,顶会还重要嘛?

    如果你准备发AI方向的论文,或准备从事科研工作或已在企业中担任AI算法岗的工作.那么我真诚的向大家推荐,贪心学院<高阶机器学习研修班>,目前全网上应该找不到类似体系化的课程.课程精选了四大 ...

  4. 推荐几个出论文的好方向

    如果你准备发AI方向的论文,或准备从事科研工作或已在企业中担任AI算法岗的工作.那么我真诚的向大家推荐,贪心学院<高阶机器学习研修班>,目前全网上应该找不到类似体系化的课程.课程精选了四大 ...

  5. 想快速发表CV/NLP论文?试试这几个方向!

    如果你准备发AI方向的论文,或准备从事科研工作或已在企业中担任AI算法岗的工作.那么我真诚的向大家推荐,贪心学院<高阶机器学习研修班>,目前全网上应该找不到类似体系化的课程.课程精选了四大 ...

  6. 面试AI算法岗,你被要求复现顶会论文了嘛?

    如果你准备发AI方向的论文,或准备从事科研工作或已在企业中担任AI算法岗的工作.那么我真诚的向大家推荐,贪心学院<高阶机器学习研修班>,目前全网上应该找不到类似体系化的课程.课程精选了四大 ...

  7. MongoDB:The Definitive Guide CHAPTER 2 Getting Started

    MongoDB is very powerful, but it is still easy to get started with. In this chapter we'll introduce ...

  8. 《C++ Templates》笔记 Chapter 12 Fundamentals in Depth-Chapter 13 Names in Templates

    文章目录 Chapter 12 Fundamentals in Depth 12.1 Parameterized Declarations 12.1.1 Virtual Member Function ...

  9. PRML - Chapter 02 Probability Distributions

    PRML - Chapter 02 Probability Distributions 提纲 重点 密度估计 充分统计量 高斯分布 ( 建议充分熟悉 ) 难点 贝叶斯估计 多元高斯分布 指数族分布 共 ...

  10. 计算机专业英语chapter5,计算机专业英语 Chapter 5

    计算机专业英语 Chapter 5 (28页) 本资源提供全文预览,点击全文预览即可全文预览,如果喜欢文档就下载吧,查找使用更方便哦! 9.90 积分 Multimedia Chapter 5 Wha ...

最新文章

  1. 2022-2028年中国塑料鞋行业市场发展调研及未来前景规划报告
  2. redchat怎么编写shell脚本_shell脚本编写思路
  3. Grandma Capa Knits a Scarf 模拟,字符串
  4. Thymelaf中使用select进行消息的回显
  5. CG CTF RE Hello,RE!
  6. 你也可以搞懂的微服务第一篇——来自ThoughtWork的学习体验
  7. python2转python3代码_Python2代码转成Python3代码
  8. python des加密文件_Python DES加密解密方法 pyDes库 兼容中文
  9. 软件构建--项目总结
  10. STM8学习笔记---定时器输出7路PWM波
  11. win32开发(mdi应用)
  12. PMBOK--项目整合管理
  13. QTreeView三态复选
  14. Android-EditText属性大全
  15. 计算机内存128毫升,内存换算公式(内存怎么换算)
  16. C# winform Qrcoder二维码
  17. 程序员常会用到的几款软件
  18. 为什么你的网速一直快不起来?
  19. vue2实现传送门效果
  20. 万字长文!Unix 和 Linux 你不知道的那些历史(详解版)

热门文章

  1. 杂谈 跟编程无关的事情11
  2. ros 控制xbox_从提示框:在Windows中控制Xbox控制器,在夏天保持计算机凉爽以及DIY图书扫描装置...
  3. 20190901笔记默写[mò xiě] write from memory
  4. u盘/U盘启动盘插入电脑后,不显示文件,但有保留占用内存
  5. Python中pass的使用
  6. Scrapy 2.6 Requests and Responses 请求和响应使用指南
  7. java setbounds无效_为什么即使将setLayout()设置为null后,setBounds()方法也不起作用? - java...
  8. 常用软件开发安装包+破解分享
  9. 蓝桥杯题目练习(学做菜)
  10. 2021年江西省安全员C证考试报名及江西省安全员C证模拟考试题库