文章目录

  • 专栏传送门
  • 0.引言
  • 1.逆强化学习发展历程
  • 2.需要准备的

专栏传送门

0.简介
1.学徒学习
2.最大熵学习

0.引言

\qquad相比于深度学习,国内强化学习的教程并不是特别多,而相比强化学习,逆强化学习的教程可谓是少之又少。而本人想将整理到的资料融合到一块并记录下来,因此开辟了这个分栏。有关这个领域的应用倒是有很多博客可以参考,但真正介绍原理很清楚的博客很少,因此本系列以介绍原理为主,辅助代码实验。
\qquad逆强化学习(Inverse Reinforcement Learning,IRL)其实是模仿学习(Imitation Learning,IL)的一种,与普通IL方法不同的是,其通过学习Expert,求得Environment的奖励函数Reward,再结合正强化学习(Forward Reinforcement Learning),达到与环境互动,模仿专家系统行为的目的。
\qquad与普通强化学习不同,强化学习虽然不像监督学习一样需要知道样本的标签,但是需要知道每一个样本对应的奖励函数Reward;然而逆强化学习则利用人类的行为求取这个Reward。在这个过程中会遇到各种问题,但是成功的案例也不少,最典型的要数美国berkly大学做的机器人摆盘子和倒弹珠的实验:

http://rll.berkeley.edu/gcl


\qquad在该实验中,机器人将10个盘子依次摆放到对应位置是一个特定的强化学习任务,这个任务的损失函数很难人为界定,但是可以通过人工演示正确的范例来让机器人加以学习,从而达到学习环境奖励函数并优化Policy的目的。

\qquadIRL领域open-access的papers有很多,可惜本人水平有限,理解太浅。虽说知乎和CSDN的大V们也做过很多介绍,可惜看了之后都是失望大于期望的,这些博客大多参考了国外的课程,可惜播放源大多数都不是国内源,虽说打不开,本人将链接也贴在下方以作参考。

  1. 莫烦python-强化学习系列
  2. 台湾大学-深度强化系学习系列视频(非国内源)
  3. 台湾大学-模仿学习简介(非国内源)
  4. 美国Berkly大学-模仿学习课程(非国内源)
  5. 模仿学习(行为克隆+逆强哈学习)教学(非国内源)

1.逆强化学习发展历程

IRL的重要论文(OpenAI提供的论文)

论文链接

\qquad如果翻看近些年IRL的论文就会发现,其IRL的思想早在2000年左右就已经提出了,但它的热门期也是随着2013年Deep RL的出现而开始的。目前主要的方法有以下几种:

  1. 学徒学习(Apprenticeship Learning, 2004)
  2. 最大熵学习(Maximum Entropy Learning,2010)
  3. 引导损失函数学习(Guided Cost Learning,2016)
  4. Gail(Generative Adversarial Imitation Learning,2016)
  5. DeepMimic(Example-Guided Deep Reinforcement Learning of Physics-Based Character Skills,2018)
  6. Vail(Variational Discriminator Bottleneck: Improving Imitation Learning,2018)
  7. MetaMimic(One-Shot High-Fidelity Imitation,2018)

\qquad本人在这个领域也属于小白水平,目前只大概了解了前4种方法的原理,若有错误或不清晰的地方,还望大家指正(后续系列方法的整理会持续更新)。
\qquadIRL与RL一样,它的分类方法也基本遵循了以下原则(图片来自OpenAI的spiningup官网):

\qquad首先出现的Model-Free的方法,其次出现Model-Based方法。在Model-Free方法中,大家也是先研究Q-Learning系列的(Value-Based)方法,然后再研究Policy-Based方法。这里的Model指的是Dynamic Model,在MDP中指状态转移概率(矩阵),很多时候这个矩阵无法求得,就必须依赖Model-Free的方法,通常Model-Free都是基于Policy Optimization或者Sample Based的,以下是一些Model-Based和Model Free的IRL方法整理。

Model-Based Model-Free
Maximum Margin Optimization, Apprenticeship Learning, Maximum Entropy Learning, Deep Maximum Entropy Learning Relative Entropy Learning, Path Integral Entropy Learning, Guided Cost Loss, Model-Free Imitation Learning via Policy Optimization

\qquad在深度学习盛行之后,也出现了很多IRL的Deep Learning的方法,当然,只要知道了梯度如何计算,其实深度学习和线性函数是一回事。

2.需要准备的

博客篇幅不宜过长,因此以下基础知识内容本系列的博客不会再详细赘述,还望读者自行学习,毕竟基础不牢地动山摇嘛

  1. 强化学习的基础知识(可以看引言中莫烦的视频,或者参考OpenAI官网教程)
  2. 深度学习的基本理论(其实这才是最好学的,好在B站有不少,在这里就不作推荐了)
  3. 概率论的基础知识(说实话,高数和线代用的不是特别多,但是对概率论基础知识的掌握还是非常必要的)
  4. Linux的开发环境(强化学习的仿真环境gym目前只支持Linux呀,虽说有人在Windows上成功了,但也不是Official Support的)

\qquad后续会根据第一章提到的发展历程更新这个系列的博客,欢迎同道之人交流探讨!

【逆强化学习-0】Introduction相关推荐

  1. 【逆强化学习-2】最大熵学习(Maximum Entropy Learning)

    文章目录 0.引言 1.算法原理 2.仿真 0.引言 \qquad本文是逆强化学习系列的第2篇,其余博客传送门如下: 逆强化学习0-Introduction 逆强化学习1-学徒学习 \qquad最大熵 ...

  2. 【逆强化学习-1】学徒学习(Apprenticeship Learning)

    文章目录 0.引言 1.算法原理 2.仿真环境 3.运行 4.补充(学徒学习+深度Q网络) 本文为逆强化学习系列第1篇,没有看过逆强化学习介绍的那篇的朋友,可以看一下: Inverse Reinfor ...

  3. 《强化学习周刊》第36期:DDA3C、因果推理干预、逆强化学习

    No.36 智源社区 强化学习组 强 化 学  习 研究 观点 资源 活动 关于周刊 强化学习作为人工智能领域研究热点之一,其研究进展与成果也引发了众多关注.为帮助研究与工程人员了解该领域的相关进展和 ...

  4. 对话生成的新探索——从模仿学习到逆强化学习

    论文解读:Dialogue Generation: From Imitation Learning to Inverse Reinforcement Learning   对话生成是一个常见的自然语言 ...

  5. 强化学习:Introduction

    参考资料:墙裂推荐:[强化学习视频]Reinforcement Learning Course by David Silver David Silver强化学习课程的ppt <机器学习>西 ...

  6. 【强化学习】逆强化学习概念

    逆向强化学习 什么是逆向强化学习 强化学习时求累计回报期望最大时的最优策略,在求解过程中的奖励函数是人为指定的,而奖励函数的设置与最后获得最优的策略有很大关联,而在很多复杂任务中,回报函数是很难定下来 ...

  7. 强化学习-An introduction之 蒙特卡洛方法(MC) 个人笔记

    Chapter 5 Monte Carlo Methods 蒙特卡洛方法不像前面几章那样假设我们对环境有充分的知识(即知道状态转移概率等),而是从真实的experience或者模拟的experienc ...

  8. 强化学习之原理与应用

    PaddlePaddle原创 2019/02/20 17:23 强化学习之原理与应用 强化学习特别是深度强化学习近年来取得了令人瞩目的成就,除了应用于模拟器和游戏领域,在工业领域也正取得长足的进步.百 ...

  9. 深度强化学习综述论文 A Brief Survey of Deep Reinforcement Learning

    A Brief Survey of Deep Reinforcement Learning 深度强化学习的简要概述 作者: Kai Arulkumaran, Marc Peter Deisenroth ...

最新文章

  1. python里面temp是啥-请问Python里temp是什么意思?
  2. win7 桌面图标拖不动解决方法
  3. PrintWriter和Scanner的综合运用写文件并读文件
  4. linux 同步IO: sync msync、fsync、fdatasync与 fflush
  5. Windows Workflow Foundation - [介绍及相关资源]
  6. 36氪联合阿里云,共同研制中小企业发展「催化剂」
  7. NC63 后端通过单据执行动作 修改单据详细解读
  8. 超分辨率技术,随机噪声
  9. 直播丨探究Oracle多租户架构
  10. Javascript in one picture
  11. 遇见phpDesigner我笑了 PHP开发利器
  12. 13.6.1 PDF 偏执狂
  13. 2019年肖秀荣命题人精讲精练
  14. The Willpower Instinct
  15. MetaQ安装部署文档
  16. 苹果电脑win10蓝牙音响卡顿_如何修复Windows 10蓝牙扬声器的声音延迟问题
  17. java极光推送如何设置别名_Android 极光推送设置别名
  18. 狼已经一个sr闪狼已经夺人一个闪
  19. 【20210727】图说全球网站数量及服务器市场份额
  20. java -Xms -Xmx -XX:PermSize -XX:MaxPermSize

热门文章

  1. SpringBoot基础篇(一):Spring Boot入门
  2. WCF学习笔记(三):开启net.tcp端口
  3. Spring Security源码分析四:Spring Social实现微信社交登录
  4. 第三方应用商店仍为用户获取APP主渠道 细分市场或成新增长点
  5. [CareerCup] 8.10 Implement a Hash Table 实现一个哈希表
  6. 《统一沟通-微软-实战》-6-部署-2-中介服务器-5-语音路由-语音策略
  7. Silverlight 解谜游戏 之十六 消失的蒙娜丽莎
  8. mapreduce程序开发的一些总结
  9. 用vhdl实现4位加减法计数器_32位加减法器设计
  10. 壮观霉素抗性基因原理_基因组学深入挖掘·研究方案(下篇)