文章目录

  • 0.引言
  • 1.算法原理
  • 2.仿真

0.引言

\qquad本文是逆强化学习系列的第2篇,其余博客传送门如下:

逆强化学习0-Introduction
逆强化学习1-学徒学习

\qquad最大熵学习是2008年出现的方法,原论文(链接见【逆强化学习0】的博客)使用的Reward的函数仍然是线性模型,但是优化的思想和之前谈到的学徒学习有本质差别,由于需要一些概率论和随机过程分析课程的知识,原paper的理论也十分晦涩难懂。本人凭借粗浅的理解给大家一个浅显易懂的解释。

原会议的presentation(PPT)永久免费
原paper见部分0- Introduction部分
GitHub源代码
本文点赞破百,解锁额外代码(DQN+maxEnt)

\qquad学徒学习(APP)是最大化间隙策略(MMP)的一种扩展,通过求解满足最大化间隙的Reward来计算Reward,从而使得Lean的行为越来越趋向于Expert(但又不好于Expert),这种方法往往叫做Feature Matching。其缺点在于对于存在多种合理的Reward的函数或者Expert存在多种次优轨迹时,该方法就无能为力了。APP本质是有约束优化问题,而优化变量是feature的discount-expectation基向量的坐标θ\thetaθ。然而对于每一个策略π\piπ而言,都可能存在多个Reward函数使其最优。当演示了次优行为时,需要多个策略混合来匹配特征计数,这就让Feature Matching这件事在Expert轨迹存在多个Feature期望值时变得非常模糊。在APP中,这是通过求平均的方式解决的,然而这明显不是一个合理的解决方案。
\qquad最大熵学习(MaxEnt)同样是Feature Matching的方法,与APP不同的是,其采用了一种有原则的方式消除了这种匹配歧义。而这种原则就是最大熵原则,该原则基于一种假设——即专家系统轨迹生成自己的专家特征期望的策略是最优轨迹(即下文的约束条件1).
\qquad可以简单的理解为,在APP中作为损失函数的特征匹配,在MaxEnt中被放入了约束条件中,而MaxEnt正是在满足这个约束条件的情况下,要求以θ\thetaθ为Reward函数参数时,轨迹概率分布P(ζ∣θ)P(\zeta|\theta)P(ζ∣θ)的信息熵最大
\qquad至于为什么要求信息熵最大,原paper中并无详细说明,只是指出这已经在reference里面有了相关研究,本人查阅相关资料,给出以下几个理由供大家参考:

  1. 物理系统的稳定状态通常趋向于熵最大
  2. 只有P恒为0的概率分布熵才为0,正态分布是所有概率分布中熵最大的(会议presentation里面说均匀分布的信息熵最大,确认过是个错误结论,试想一下均匀分布的分布区间有限而正态无限)
  3. 熵越大,先验信息越少,最大熵估计也是统计决策理论中常用的一种估计原则

1.算法原理

下面就简单介绍一下这个熵,对于连续变量而言,信息熵通常表示为
Ent=∫x∽π−p(x)logp(x)Ent=\int_{x\backsim \pi}-p(x)logp(x)Ent=∫x∽π​−p(x)logp(x)
对于强化学习任务而言,最大化信息熵写为:
max⁡∑ζ∈D−P(ζ∣θ)logP(ζ∣θ)s.t.{∑ζ∈DP(ζ∣θ)fζ=f~∑ζ∈DP(ζ∣θ)=1\begin{aligned} & \max\sum_{\zeta \in D}-P(\zeta| \theta)logP(\zeta| \theta) \\ s.t. &\begin{cases} \sum_{\zeta\in D}P(\zeta| \theta)f_\zeta = \widetilde{f} \\[2ex] \sum_{\zeta \in D}P(\zeta | \theta)=1 \\ \end{cases} \end{aligned}s.t.​maxζ∈D∑​−P(ζ∣θ)logP(ζ∣θ)⎩⎨⎧​∑ζ∈D​P(ζ∣θ)fζ​=f​∑ζ∈D​P(ζ∣θ)=1​​

构造拉格朗日函数
L(P,λ,μ)=∑ζ∈D[P(ζ∣θ)logP(ζ∣θ)+λ(P(ζ∣θ)fζ−f~)+μ(P(ζ∣θ)−1)]L(P,\lambda,\mu)= \sum_{\zeta \in D}[P(\zeta|\theta)logP(\zeta|\theta)+\lambda (P(\zeta|\theta)f_{\zeta}-\widetilde{f})+\mu(P(\zeta|\theta)-1)]L(P,λ,μ)=ζ∈D∑​[P(ζ∣θ)logP(ζ∣θ)+λ(P(ζ∣θ)fζ​−f​)+μ(P(ζ∣θ)−1)]

应用拉格朗日函数的KKT条件
∇LP=∑ζ∈DlogP(ζ∣θ)+1+λfζ+μ=0①∇Lλ=∑ζ∈DP(ζ∣θ)fζ−f~=0②∇Lμ=∑ζ∈DP(ζ∣θ)−1=0③\begin{array} {cl} \nabla L_P =& \sum_{\zeta \in D}logP(\zeta|\theta)+1+\lambda f_{\zeta}+\mu=0 &①\\ \nabla L_{\lambda}=&\sum_{\zeta\in D}P(\zeta| \theta)f_\zeta - \widetilde{f} = 0 &②\\ \nabla L_{\mu} =& \sum_{\zeta \in D}P(\zeta | \theta)-1=0 &③ \end{array} ∇LP​=∇Lλ​=∇Lμ​=​∑ζ∈D​logP(ζ∣θ)+1+λfζ​+μ=0∑ζ∈D​P(ζ∣θ)fζ​−f​=0∑ζ∈D​P(ζ∣θ)−1=0​①②③​
由①③式得
P(ζ∣θ)=exp(−1−μ−λfζ)∑ζ∈Dexp(−1−μ−λfζ)P(\zeta|\theta)=\frac{exp(-1-\mu-\lambda f_{\zeta})}{\sum_{\zeta \in D}exp(-1-\mu-\lambda f_{\zeta})}P(ζ∣θ)=∑ζ∈D​exp(−1−μ−λfζ​)exp(−1−μ−λfζ​)​
\qquad光靠这个式子肯定是解不出最优的θ\thetaθ的,这就要提到原paper的另一个假设——使用θ\thetaθ参数的Reward函数Rθ(τ)R_\theta(\tau)Rθ​(τ)时,ζ\zetaζ轨迹的概率P(ζ∣θ)P(\zeta|\theta)P(ζ∣θ)正比于Rθ(ζ)R_{\theta}(\zeta)Rθ​(ζ)的自然指数,再加上概率归一性约束,可得专家系统策略的轨迹概率为:
P(ζ∣θ)=exp(Rθ(ζ))∫τ∈D[exp(Rθ(τ))dτ]P(\zeta|\theta)=\frac{exp(R_\theta(\zeta))}{\int_{\tau\in D}\left[{exp(R_{\theta}(\tau))}{\rm d}\tau \right]} P(ζ∣θ)=∫τ∈D​[exp(Rθ​(τ))dτ]exp(Rθ​(ζ))​
需要注意的是,这里的R(θ)R(\theta)R(θ)指的是累积奖赏而非单步奖赏。

上式中的ZZZ在paper中又被称为partial function,原文是已知原系统的dynamic model的,即已知系统的状态转移概率。在不知道状态转移概率时ZZZ无法直接求得,通常也有三种方法:

  1. 拉普拉斯近似(Laplace Approximation)
  2. 值函数近似(Value Function Approximation)
  3. 采样近似(Sample-Based Approximation)

有读者肯定会疑问,原paper中给出的损失函数不是最大信息熵而是最大似然,这又是为什么。原paper中给出了一个让人难以理解的解释:

Maximizing the entropy of the distribution over paths subject to the feature constraints from observed data implies that we maximize the likelihood of the observed data under the maximum entropy (exponential family) distribution derived above (Jaynes 1957).

——即从观测数据上满足feature matching的约束(约束1)的条件下最大化轨迹分布的信息熵等价于在最大信息熵分布的条件下从观测数据最大化似然。本文不对此深究,感兴趣的朋友可以研究一下下面这篇论文

Jaynes, E. T. 1957. Information theory and statistical mechanics. Physical Review 106:620–630.

\qquad而假设是专家系统是最大熵分布的,因此对专家轨迹概率使用最大似然,得到
L(θ)=∑ζ∈Elogp(ζ∣θ)L(\theta)=\sum_{\zeta\in E}logp(\zeta|\theta)L(θ)=ζ∈E∑​logp(ζ∣θ)
即轨迹概率的最大似然。代入最大熵分布下的轨迹概率公式(其中E代表Expert的轨迹空间,而D代表Agent的轨迹空间(可以认为是全部轨迹空间),E的采样空间是与损失函数直接挂钩的,而D的采样空间则用来对ZZZ估计的):
L(θ)=∑τ∈Elogp(τ∣θ)=∑τ∈Elog1Zexp(Rθ(τ))=∑τ∈ERθ(τ)−MlogZ=∑τ∈ERθ(τ)−Mlog∑τ∈Dexp(Rθ(τ))∇θL=∑τ∈EdRθ(τ)dθ−M1∑τ∈Dexp(Rθ(τ))∑τ∈D[exp(Rθ(τ))dRθ(τ)dθ]=∑τ∈EdRθ(τ)dθ−M∑τ∈D[exp(Rθ(τ))∑τ∈Dexp(Rθ(τ))dRθ(τ)dθ]=∑τ∈EdRθ(τ)dθ−M∑τ∈D[p(τ∣θ)dRθ(τ)dθ]=∑τ∈EdRθ(τ)dθ−M∑si∈S[p(s∣θ)drθ(s)dθ]\begin{aligned} L(\theta) &=\sum_{\tau\in E}logp(\tau|\theta)\\ &=\sum_{\tau\in E}log\frac{1}{Z}exp(R_{\theta}(\tau))\\ &=\sum_{\tau\in E}R_{\theta}(\tau)-MlogZ\\ &=\sum_{\tau\in E}R_{\theta}(\tau)-Mlog\sum_{\tau\in D}exp(R_{\theta}(\tau))\\ \nabla _{\theta}L&=\sum_{\tau \in E}\frac{dR_{\theta}(\tau)}{d\theta}-M\frac{1}{\sum_{\tau\in D}exp(R_{\theta}(\tau))}\sum_{\tau\in D}\left[exp(R_{\theta}(\tau))\frac{dR_{\theta}(\tau)}{d\theta}\right]\\ &=\sum_{\tau \in E}\frac{dR_{\theta}(\tau)}{d\theta}-M\sum_{\tau\in D}\left[\frac{exp(R_{\theta}(\tau))}{\sum_{\tau\in D}exp(R_{\theta}(\tau))}\frac{dR_{\theta}(\tau)}{d\theta}\right]\\ &=\sum_{\tau \in E}\frac{dR_{\theta}(\tau)}{d\theta}-M\sum_{\tau\in D}\left[p(\tau|\theta)\frac{dR_{\theta}(\tau)}{d\theta} \right]\\ &=\sum_{\tau \in E}\frac{dR_{\theta}(\tau)}{d\theta}-M\sum_{s_i\in S}\left[p(s|\theta)\frac{dr_{\theta}(s)}{d\theta} \right]\\ \end{aligned} L(θ)∇θ​L​=τ∈E∑​logp(τ∣θ)=τ∈E∑​logZ1​exp(Rθ​(τ))=τ∈E∑​Rθ​(τ)−MlogZ=τ∈E∑​Rθ​(τ)−Mlogτ∈D∑​exp(Rθ​(τ))=τ∈E∑​dθdRθ​(τ)​−M∑τ∈D​exp(Rθ​(τ))1​τ∈D∑​[exp(Rθ​(τ))dθdRθ​(τ)​]=τ∈E∑​dθdRθ​(τ)​−Mτ∈D∑​[∑τ∈D​exp(Rθ​(τ))exp(Rθ​(τ))​dθdRθ​(τ)​]=τ∈E∑​dθdRθ​(τ)​−Mτ∈D∑​[p(τ∣θ)dθdRθ​(τ)​]=τ∈E∑​dθdRθ​(τ)​−Msi​∈S∑​[p(s∣θ)dθdrθ​(s)​]​
归一化的损失函数为:
∇θL‾=1M∑τ∈EdRθ(τ)dθ−∑si∈S[p(s∣θ)drθ(s)dθ]\nabla _{\theta}\overline{L}=\frac{1}{M}\sum_{\tau \in E}\frac{dR_{\theta}(\tau)}{d\theta}-\sum_{s_i\in S}\left[p(s|\theta)\frac{dr_{\theta}(s)}{d\theta} \right]∇θ​L=M1​τ∈E∑​dθdRθ​(τ)​−si​∈S∑​[p(s∣θ)dθdrθ​(s)​]
其中M是专家轨迹的条数,如果状态空间是无限的,则不能直接套用此公式(但不代表无法解决)。
对于线性Reward,轨迹的累积Reward为
Rθ(ζ)=θTfζ=∑sj∈ζθTfsjR_{\theta}(\zeta)=\theta ^T f_{\zeta}=\sum_{s_j\in \zeta}\theta ^T f_{s_j}Rθ​(ζ)=θTfζ​=sj​∈ζ∑​θTfsj​​
Expert产生的Feature Expectation为
f~=1m∑ifζ~i\widetilde{f}=\frac{1}{m}\sum_{i}f_{\widetilde{\zeta}_i}f​=m1​i∑​fζ​i​​
损失函数梯度可表示为:
∇θL=f~−∑si∈SDsifsi\nabla_{\theta}L=\widetilde{f}-\sum_{s_i\in S}D_{s_i}f_{si}∇θ​L=f​−si​∈S∑​Dsi​​fsi​
其中D为状态访问频次(State Visitiation Frequency),可以通过不断与环境互动近似出。
总结一下这个公式的推导需要注意一下几点:

  1. 最大熵原则是建立在Feature Matching的基础上的,而轨迹概率分布的公式则是由最大熵原则+约束推导出的
  2. 最大熵原则的轨迹概率分布公式,未知配分函数项Z是在全部轨迹集上求和,因此是使用Agent的轨迹进行近似
  3. 最大化专家系统的轨迹概率似然其实是一个与原问题等价的优化问题,因此损失函数导数的第一项是在Expert的Demonstrations上求和(或求积分),而不是Agent的。

2.仿真

\qquad本文的仿真平台参照了github上的资源,并进行了略微修改(仿真环境在学徒学习那篇有了详细介绍,在此就不再赘述了):

GitHub源代码
本文点赞破百,解锁额外代码(DQN+maxEnt)

使用方法仍然是直接运行train.py即可(注意需要在mountaincar/maxent/的目录下运行)。和学徒学习的代码一样,也是基于Q-Table的。
\qquad源代码中对Feature没有做任何的提取,直接将每个状态(20个位置采样×20个速度采样总共400个离散状态)作为Feature。假设不同特征之间是解耦的,Feature Matrix就是对角矩阵,即因此状态访问频次×特征即特征访问频次。
\qquad在源代码中learner_feature_expectations即特征访问频次,而归一化之后即为梯度的第二项
源代码的其中一部分如下:

 expert = expert_feature_expectations(feature_matrix, demonstrations)learner_feature_expectations = np.zeros(n_states)theta = -(np.random.uniform(size=(n_states,)))episodes, scores = [], []for episode in range(30000):state = env.reset()score = 0if (episode != 0 and episode == 10000) or (episode > 10000 and episode % 5000 == 0):learner = learner_feature_expectations / episodemaxent_irl(expert, learner, theta, theta_learning_rate)while True:state_idx = idx_state(env, state)action = np.argmax(q_table[state_idx])next_state, reward, done, _ = env.step(action)irl_reward = get_reward(feature_matrix, theta, n_states, state_idx)next_state_idx = idx_state(env, next_state)update_q_table(state_idx, action, irl_reward, next_state_idx)learner_feature_expectations += feature_matrix[int(state_idx)]

看完原github的程序,本人还有一个疑点,即是maxent.py文件中的一段

def maxent_irl(expert, learner, theta, learning_rate):gradient = expert - learnertheta += learning_rate * gradient# Clip thetafor i in range(len(theta)):if theta[i]>0:theta[i]=0

\qquad原文中的clip theta实际上是防止theta超过0,类似于深度学习中的梯度截断操作,然而这个操作在我尝试多次之后并无用处,而且也没有任何意义(因为在theta>0后,也会在下一次迭代时通过学习使得theta重新<0)。本人的建议是增加一个学习率递减的schedule,并且将clip的范围从[-inf,0]修改到[-0.5,0.5],可以获得相对稳定的学习率曲线,下面分别是clip(-0.5,0.5)和clip(-0.5,0)的对比:

clip(-0.5,0.5) clip(-0.5,0)

\qquad可以发现增加一部分梯度的正向范围反而更有利于学习,这是由于expert-learn的极小值是在0处取得的,然而在学习率固定时,改函数会在离散迭代时在0附近震荡,梯度若在0处截断会导致学习率锐减为0(可能正是原作者用意?)。

下面是test.py保存的几组gif的图

Reward=-158 Reward=-138 Reward=-146

希望本文对您有帮助,谢谢阅读!

【逆强化学习-2】最大熵学习(Maximum Entropy Learning)相关推荐

  1. MaxEnt: 最大熵模型(Maximum Entropy Models)

    转自:http://www.zhizhihu.com/html/y2011/3489.html 刚看完HMM,因为有个ME-HMM方法,所以再看看最大熵模型,最后再把CRF模型看看,这一系列理论大体消 ...

  2. 【逆强化学习-0】Introduction

    文章目录 专栏传送门 0.引言 1.逆强化学习发展历程 2.需要准备的 专栏传送门 0.简介 1.学徒学习 2.最大熵学习 0.引言 \qquad相比于深度学习,国内强化学习的教程并不是特别多,而相比 ...

  3. 【强化学习】逆强化学习概念

    逆向强化学习 什么是逆向强化学习 强化学习时求累计回报期望最大时的最优策略,在求解过程中的奖励函数是人为指定的,而奖励函数的设置与最后获得最优的策略有很大关联,而在很多复杂任务中,回报函数是很难定下来 ...

  4. 【机器学习】最大熵模型(Maximum Entropy Model)

    最大熵模型(Maximum Entropy Model,以下简称MaxEnt),MaxEnt 是概率模型学习中一个准则,其思想为:在学习概率模型时,所有可能的模型中熵最大的模型是最好的模型:若概率模型 ...

  5. 对话生成的新探索——从模仿学习到逆强化学习

    论文解读:Dialogue Generation: From Imitation Learning to Inverse Reinforcement Learning   对话生成是一个常见的自然语言 ...

  6. 《强化学习周刊》第36期:DDA3C、因果推理干预、逆强化学习

    No.36 智源社区 强化学习组 强 化 学  习 研究 观点 资源 活动 关于周刊 强化学习作为人工智能领域研究热点之一,其研究进展与成果也引发了众多关注.为帮助研究与工程人员了解该领域的相关进展和 ...

  7. 【逆强化学习-1】学徒学习(Apprenticeship Learning)

    文章目录 0.引言 1.算法原理 2.仿真环境 3.运行 4.补充(学徒学习+深度Q网络) 本文为逆强化学习系列第1篇,没有看过逆强化学习介绍的那篇的朋友,可以看一下: Inverse Reinfor ...

  8. 最大熵模型(Maximum Entropy Model)文献阅读指南

    最大熵模型(Maximum Entropy Model)是一种机器学习方法,在自然语言处理的许多领域(如词性标注.中文分词.句子边界识别.浅层句法分析及文本分类等)都有比较好的应用效果.张乐博士的最大 ...

  9. 最大熵学习笔记(六)优缺点分析

    生活中我们经常听到人们说"不要把鸡蛋放到一个篮子里",这样可以降低风险.深究一下,这是为什么呢?其实,这里边包含了所谓的最大熵原理(The Maximum Entropy Prin ...

最新文章

  1. Ubuntu中Apache修改DocumentRoot(修改网站根目录)
  2. Select模型原理
  3. crtmpserver流媒体服务器的介绍与搭建
  4. 改变服务器控件的显示属性,2.6.1 设置Style特性和其他属性
  5. JavaScript中null与undefined的比较
  6. vs 创建控制器 一直收集信息_日产Pro-Pilot的ADAS控制器拆解
  7. ERROR 1819 (HY000): Your password does not satisfy the current policy requirements
  8. P1060 开心的金明(01背包)
  9. spring timetask 定时任务调度
  10. networkxpdf_1 NetworkX概述
  11. D 洛谷 P3602 Koishi Loves Segments [贪心 树状数组+堆]
  12. Android MMKV框架引入使用
  13. C++ 泛型编程-模板
  14. 【vue】ramda.js在vue中的使用
  15. 使用Redis,QQ邮箱模拟验证码验证
  16. Nefu 锐格c实验8
  17. 【不积跬步_无以至千里】 数学知识(不定时整理)
  18. 微信公众号成本分析服务器,分析:为什么微信公众号用户获取成本比App还高?...
  19. 职场PUA:为什么你就不能逼自己一把呢?
  20. 车载以太网协议:SOME/IP (layer5-7)简介

热门文章

  1. oracle的sga
  2. 互联网的发展背离了其初衷吗?
  3. 自定义按钮 图片标题位置随意放置
  4. SylixOS磁盘高速传输
  5. Guava翻译系列之EventBus
  6. rsync同步数据到内网
  7. ubuntu双系统导致进windows花屏
  8. iOS平台快速发布HT for Web拓扑图应用
  9. FusionCharts V3图表导出图片和PDF属性说明
  10. 用SQL Server 监控 OS Server 的Task Management信息