【清华伯克利】提出全新算法RPG,通过奖励随机化发现多智能体游戏中多样性策略行为。
深度强化学习实验室
官网:http://www.neurondance.com/
论坛:http://deeprl.neurondance.com/
作者:本文转载自机器之心
编辑、排版:DeepRL
在这篇论文中,研究者提出了一个在 reward-space 进行探索的新算法 RPG(Reward-Randomized Policy Gradient),并且在存在多个纳什均衡 (Nash Equilibrium, NE) 的挑战性的多智能任务中进行了实验验证,实验结果表明,RPG 的表现显著优于经典的 policy/action-space 探索的算法,并且发现了很多有趣的、人类可以理解的智能体行为策略。除此之外,论文进一步提出了 RPG 算法的扩展:利用 RR 得到的多样性策略池训练一个新的具备自适应能力的策略。
在法国启蒙思想家卢梭(Jean-Jacques Rousseau)的《论人类不平等起源》中,提到这样一个猎鹿(StagHunt)故事:一群猎人安静地在陷阱旁等待鹿的出现,猎到鹿的收益较大,可以让所有猎人都吃饱,但是由于鹿十分机敏,需要大家都耐心等待。这个时候一只兔子出现了,兔子体型较小,一人便可以成功捕猎,但是相应的收益也很小。
于是每一个猎人有了两个选择:继续等待鹿的出现还是立刻跳起来捕兔?如果猎人选择立刻捕兔,那么他可以捕到兔,得到较小的收益;如果猎人选择继续等待鹿,若所有其他猎人也都选择了继续等待鹿,那么他们最终可以猎到鹿,得到最大收益,但是一旦有任何一个其他猎人选择立刻捕兔,那么选择等待鹿的猎人只能挨饿(既没有捕兔,也没有机会再猎到鹿)。
图 1:StagHunt 游戏,a>b>=d>c
我们考虑 2 个猎人的情况,然后把各种情况的收益抽象出来,就引出了博弈论中非常经典的 2x2 矩阵游戏 StagHunt。如图 1 所示,每个猎人可以执行两种动作:猎鹿(Stag,缩写为 S)和捕兔(Hare,缩写为 H),如果两个猎人都选择猎鹿(S,S),可以得到最大收益 a(吃饱);如果两人都选择捕兔(H,H),得到较小收益 d(需分享兔子);如果一人猎鹿一人捕兔(S,H),那么捕兔的人得到收益 b(独自吃兔),而猎鹿的人得到最小收益 c(挨饿)。这些收益情况满足大小关系 a (吃饱)> b (独自吃兔子)>=d (两个人分享兔子)> c (挨饿)。
图 2:PPO 在 StagHunt 游戏中的表现,其中,a=4,b=3,d=1,10 个随机种子
在这个游戏中存在两个纯策略纳什均衡(Nash Equilibrium,NE):一个是 Stag NE,即两个猎人都选择等待鹿,每一个猎人都可以得到很高的回报,但这是一个风险很高的合作策略。因为一旦其中一个猎人选择不合作,该猎人本身的收益不会发生剧烈变化 -- 从最大收益 a(吃饱)变为收益 b(独自吃兔),然而,对另一名猎人来说损失却是巨大的 -- 从最大收益 a(吃饱)变为最小收益 c(挨饿)。而这个损失(也就是 a-c)越大,意味着猎人选择合作的风险也就越高。另一个纳什均衡是 Hare NE,即两个猎人都选择捕兔,尽管每个猎人只能得到较低的回报,但这是一个保守的策略,因为无论对方怎么选,自己都会获得一定的收益 -- 对方选猎鹿,自己获得较大收益 b(独自吃兔),对方选捕兔,自己获得较小收益 d(分享兔子)。在这个任务中,现有的强化学习算法会收敛到哪个 NE 呢?作者做了一个实验,固定 a=4,b=3,d=1,变化 c 的取值,从图 2 可以看出:独自猎鹿的惩罚越大,现有的算法收敛到 Stag NE 的概率会越低,也就是更倾向于选择保守的捕兔策略。这与之前的分析是也是吻合的。
那么,如何才能让强化学习收敛到收益最优的策略呢?为了解决这个问题,来自清华大学、北京大学、UC 伯克利等机构的研究者提出了一个简单有效的技术,奖励随机化(Reward Randomization,RR)。不同于传统强化学习中的在状态空间(state-space)中进行探索(exploration)的方法,奖励随机化是一个在奖励空间(reward-space)进行探索的方法。这项研究已被 ICLR 2021 大会接收为 Poster 论文。
论文地址:https://arxiv.org/abs/2103.04564
如图 3 所示,在一个奖励设置比较极端的游戏里,强化学习通常很难探索到最优策略(左图,灰色区域表示可能收敛到最优解的子空间,由于奖励极端而非常狭小);但是同样的策略在其他奖励设置的游戏中可能很容易被探索到(右图)。这就演变出论文的核心观点:通过奖励随机化对原始游戏(StagHunt)的奖励(reward)进行扰动,将问题转化为在扰动后的游戏中寻找合作策略,然后再回到原始游戏中进行微调(fine-tune),进而找到最优策略。
图 3:奖励随机化的示意图
进一步地,论文将奖励随机化和策略梯度法(Policy Gradient,PG)相结合,提出一个在 reward-space 进行探索的新算法 RPG(Reward-Randomized Policy Gradient)。实验结果表明,RPG 的表现显著优于经典的 policy/action-space 探索的算法,并且作者还利用 RPG 发现了很多有趣的、人类可以理解的智能体行为策略。
首先,论文在 GridWorld 中进行了实验,其中有一个任务叫 Monster-Hunt(如图 4 所示),这个任务设定是这样的:图中分别用黄色和蓝色表示两个智能体(Agent),他们可以在 5*5 格子中移动,红色表示怪兽(Monster),怪兽可以在格子中随机游走,并且怪兽有一个特点是它会朝着离自己最近的智能体移动。绿色表示食物苹果(Apple),苹果不能移动。如果两个智能体同时碰到了怪兽,那么每个智能体将会获得 + 5 奖励,如果智能体单独碰到了怪兽,那么他将会受到 - 2 惩罚,智能体也可以吃苹果,每个苹果将会带来 + 2 奖励。显然,在这个任务中存在两个纳什均衡,即两个智能体同时遇到怪兽(高风险,高收益)或者各自去吃苹果(低风险,低收益)。
图 4:Monster-Hunt 任务示意图
图 5:在 Monster-Hunt 任务中不同算法的性能对比
图 5 给出了 RPG 与不同算法对比的结果,这些算法包括标准的策略梯度法、智能体共享奖励的策略梯度法、population-based 算法和一些探索(exploration)算法,包括 MAVEN, Count-based 和 Diayn。可以看出 RPG 在这个任务中显著优于 baseline。并且从图中可以注意到,即便 RR 阶段并没有找到最优策略,RPG 依然可以通过 fine-tune 阶段进一步提升性能,找到最优策略。那么,RPG 到底发现了哪些策略呢?除了自然的各自单独吃苹果和单独碰到 Monster,作者还发现了另外两种合作策略:图 6(a)展示的是发现的次优合作策略,游戏开始后,两个智能体会移动到 5*5 格子的同一个角落,然后合体原地不动,因为怪兽的一个特点是会朝着离自己最近的智能体移动,因此两个智能体原地不动也会一起碰到怪兽,得到较高的收益,这个合作策略看起来也十分合理,那么还有没有更优的合作策略呢?答案是有的,图 6(b)展示的是 RPG 发现的最优策略,游戏开始后,两个智能体会首先汇合,然后合体一起朝着怪兽移动,加上怪兽也会朝着智能体移动,这就大大加快了一起碰到怪兽的速度,因而可以得到更高的收益。图 7 是最优合作策略的演示动图。
图 6:Monster-Hunt 任务中两种不同合作策略
图 7 Monster-Hunt 任务中最优合作策略演示
接下来介绍在论文中首次开源的新环境 Agar.io,这也是该论文的一大贡献。Agar.io 是一个非常流行的在线多玩家游戏(游戏地址:http://agar.io),每个玩家可以通过鼠标控制运动方向来吃掉比自己小的智能体(可以是食物,也可以是其他玩家)。论文只考虑 2 个玩家的情况,下图(a)表示任务的示意图,同样用黄色和蓝色表示两个智能体。红色表示地图中随机生成的食物,玩家通过吃掉食物或者其他比自己小的玩家来获得奖励(奖励大小等于吃掉的质量),同理如果丢掉了质量也会受到相当的惩罚。下图(b)表示的是玩家常见的行为,例如用过分裂(Split)提高移动速度完成捕食,分裂后的部分也可以合并(Merge)。随着智能体质量的增大,移动速度也越来越慢,因此捕猎的难度也越来越大,玩家需要合作才能获得更高的收益。然而,当两个玩家距离较近时,质量较大的玩家极有可能选择攻击对于质量较小的玩家,从而立刻获得奖励,导致合作破裂。因此,对于质量较小的玩家,这种合作策略风险很高。
图7 Agar.io 任务示意图
如果你是玩家,你会选择什么策略呢?带着这个问题,看一下 RPG 发现的 7 种有趣的、人类可以理解的玩家策略。
(1)Cooperative strategy(合作策略,图 8):两个玩家合作将食物驱赶至某一区域,然后分别捕食。
图 8 (a)Agar.io 任务中的合作策略(Cooperate)
图 8 (b)合作演示
(2)Aggressive strategy(倾向攻击策略,图 9):两个玩家当两个玩家距离较近时,质量较大的玩家选择捕食质量较小玩家。
图 9 (a)Agar.io 任务中的攻击策略(Attack)
图 9 (b)攻击演示
(3)Non-cooperative strategy(非合作策略,图 10):两个玩家各自单独捕食。
图 10 Agar.io 任务中单独捕食策略(Non-cooperate)
图 11 Agar.io 任务中偶尔攻击策略(Aggressive cooperative)
(4)Aggressive cooperative strategy(偶尔攻击策略,图 11):两个玩家大部分时间选择合作,偶尔也会发生攻击行为。
(5)Sacrifice strategy(献祭策略,图 12):游戏开始后,两个玩家各自捕食,一段时间后,质量较小的玩家会在地图边界等待,将自己献祭给质量较大的玩家,由质量较大的玩家控制所有质量进行捕食。
图 12 (a)Agar.io 任务中献祭策略(Sacrifice)
图 12 (b)献祭演示
(6)Perpetual strategy(永动机策略,图 13):游戏开始后,两个玩家各自捕食,一段时间后,质量较大的玩家会在地图边界等待,质量较小的玩家驱赶食物向质量较大玩家靠拢,然后捕食,之后质量较大的玩家会非常小心地吃掉一部分质量较小的玩家,而质量较小的玩家剩下的部分会继续出去驱赶食物。一段时间后,两个玩家会交换角色,周而复始,因此称为永动机。
图 13 (a)Agar.io 任务中永动机策略(Perpetual)
图 13 (b)永动机演示
(7)Balance strategy(均衡策略,图 14):由 RPG fine-tune 之后得到的最优策略实际上是一种在互相献祭,单独捕食和合作之间的平衡策略,从图 14 可以看出,尽管 RPG 学到的策略合作行为略低,但它的收益最高。
图 14 RPG 学出了均衡策略(Balance)
论文的最后给出了 RPG 算法的扩展:利用策略随机化得到的多样性策略池训练一个新的具备自适应能力的策略(Adaptive policy),为了验证策略的适应性,作者在 Agar.io 种做了一个很有趣的实验:在游戏玩到一半时切换对手玩家的策略,然后与 Oracle 策略进行对比,如图 15 所示。例如,当对手玩家策略由合作型切换为竞争型,Adaptive 策略得到的奖励略低于竞争型策略,但显著高于合作型策略;当对手玩家策略由竞争型切换为合作型,Adaptive 策略得到的奖励略低于合作型策略,但显著高于竞争型策略。证明训练后的策略确实具有自适应性。
图 15 Agar.io 任务中 Adaptive 策略与 Oracle 策略结果对比,注意,只统计切换策略后的奖励
以上就是论文的主要内容,更多详细的实验和分析可以查看论文原文,论文的源码以及开发的 Agar.io 环境已经开源,代码指路:https://github.com/staghuntrpg/RPG。
参考链接:
论文介绍主页:https://sites.google.com/view/staghuntrpg
完
总结1:周志华 || AI领域如何做研究-写高水平论文
总结2:全网首发最全深度强化学习资料(永更)
总结3: 《强化学习导论》代码/习题答案大全
总结4:30+个必知的《人工智能》会议清单
总结5:2019年-57篇深度强化学习文章汇总
总结6: 万字总结 || 强化学习之路
总结7:万字总结 || 多智能体强化学习(MARL)大总结
总结8:深度强化学习理论、模型及编码调参技巧
完
第103篇:解决MAPPO(Multi-Agent PPO)技巧
第102篇:82篇AAAI2021强化学习论文接收列表
第101篇:OpenAI科学家提出全新强化学习算法
第100篇:Alchemy: 元强化学习(meta-RL)基准环境
第99篇:NeoRL:接近真实世界的离线强化学习基准
第98篇:全面总结(值函数与优势函数)的估计方法
第97篇:MuZero算法过程详细解读
第96篇: 值分布强化学习(Distributional RL)总结
第95篇:如何提高"强化学习算法模型"的泛化能力?
第94篇:多智能体强化学习《星际争霸II》研究
第93篇:MuZero在Atari基准上取得了新SOTA效果
第92篇:谷歌AI掌门人Jeff Dean获冯诺依曼奖
第91篇:详解用TD3算法通关BipedalWalker环境
第90篇:Top-K Off-Policy RL论文复现
第89篇:腾讯开源分布式多智能TLeague框架
第88篇:分层强化学习(HRL)全面总结
第87篇:165篇CoRL2020 accept论文汇总
第86篇:287篇ICLR2021深度强化学习论文汇总
第85篇:279页总结"基于模型的强化学习方法"
第84篇:阿里强化学习领域研究助理/实习生招聘
第83篇:180篇NIPS2020顶会强化学习论文
第82篇:强化学习需要批归一化(Batch Norm)吗?
第81篇:《综述》多智能体强化学习算法理论研究
第80篇:强化学习《奖励函数设计》详细解读
第79篇: 诺亚方舟开源高性能强化学习库“刑天”
第78篇:强化学习如何tradeoff"探索"和"利用"?
第77篇:深度强化学习工程师/研究员面试指南
第76篇:DAI2020 自动驾驶挑战赛(强化学习)
第75篇:Distributional Soft Actor-Critic算法
第74篇:【中文公益公开课】RLChina2020
第73篇:Tensorflow2.0实现29种深度强化学习算法
第72篇:【万字长文】解决强化学习"稀疏奖励"
第71篇:【公开课】高级强化学习专题
第70篇:DeepMind发布"离线强化学习基准“
第69篇:深度强化学习【Seaborn】绘图方法
第68篇:【DeepMind】多智能体学习231页PPT
第67篇:126篇ICML2020会议"强化学习"论文汇总
第66篇:分布式强化学习框架Acme,并行性加强
第65篇:DQN系列(3): 优先级经验回放(PER)
第64篇:UC Berkeley开源RAD来改进强化学习算法
第63篇:华为诺亚方舟招聘 || 强化学习研究实习生
第62篇:ICLR2020- 106篇深度强化学习顶会论文
第61篇:David Sliver 亲自讲解AlphaGo、Zero
第60篇:滴滴主办强化学习挑战赛:KDD Cup-2020
第59篇:Agent57在所有经典Atari 游戏中吊打人类
第58篇:清华开源「天授」强化学习平台
第57篇:Google发布"强化学习"框架"SEED RL"
第56篇:RL教父Sutton实现强人工智能算法的难易
第55篇:内推 || 阿里2020年强化学习实习生招聘
第54篇:顶会 || 65篇"IJCAI"深度强化学习论文
第53篇:TRPO/PPO提出者John Schulman谈科研
第52篇:《强化学习》可复现性和稳健性,如何解决?
第51篇:强化学习和最优控制的《十个关键点》
第50篇:微软全球深度强化学习开源项目开放申请
第49篇:DeepMind发布强化学习库 RLax
第48篇:AlphaStar过程详解笔记
第47篇:Exploration-Exploitation难题解决方法
第46篇:DQN系列(2): Double DQN 算法
第45篇:DQN系列(1): Double Q-learning
第44篇:科研界最全工具汇总
第43篇:起死回生|| 如何rebuttal顶会学术论文?
第42篇:深度强化学习入门到精通资料综述
第41篇:顶会征稿 || ICAPS2020: DeepRL
第40篇:实习生招聘 || 华为诺亚方舟实验室
第39篇:滴滴实习生|| 深度强化学习方向
第38篇:AAAI-2020 || 52篇深度强化学习论文
第37篇:Call For Papers# IJCNN2020-DeepRL
第36篇:复现"深度强化学习"论文的经验之谈
第35篇:α-Rank算法之DeepMind及Huawei改进
第34篇:从Paper到Coding, DRL挑战34类游戏
第33篇:DeepMind-102页深度强化学习PPT
第32篇:腾讯AI Lab强化学习招聘(正式/实习)
第31篇:强化学习,路在何方?
第30篇:强化学习的三种范例
第29篇:框架ES-MAML:进化策略的元学习方法
第28篇:138页“策略优化”PPT--Pieter Abbeel
第27篇:迁移学习在强化学习中的应用及最新进展
第26篇:深入理解Hindsight Experience Replay
第25篇:10项【深度强化学习】赛事汇总
第24篇:DRL实验中到底需要多少个随机种子?
第23篇:142页"ICML会议"强化学习笔记
第22篇:通过深度强化学习实现通用量子控制
第21篇:《深度强化学习》面试题汇总
第20篇:《深度强化学习》招聘汇总(13家企业)
第19篇:解决反馈稀疏问题之HER原理与代码实现
第18篇:"DeepRacer" —顶级深度强化学习挑战赛
第17篇:AI Paper | 几个实用工具推荐
第16篇:AI领域:如何做优秀研究并写高水平论文?
第15篇:DeepMind开源三大新框架!
第14篇:61篇NIPS2019DeepRL论文及部分解读
第13篇:OpenSpiel(28种DRL环境+24种DRL算法)
第12篇:模块化和快速原型设计Huskarl DRL框架
第11篇:DRL在Unity自行车环境中配置与实践
第10篇:解读72篇DeepMind深度强化学习论文
第9篇:《AutoML》:一份自动化调参的指导
第8篇:ReinforceJS库(动态展示DP、TD、DQN)
第7篇:10年NIPS顶会DRL论文(100多篇)汇总
第6篇:ICML2019-深度强化学习文章汇总
第5篇:深度强化学习在阿里巴巴的技术演进
第4篇:深度强化学习十大原则
第3篇:“超参数”自动化设置方法---DeepHyper
第2篇:深度强化学习的加速方法
第1篇:深入浅出解读"多巴胺(Dopamine)论文"、环境配置和实例分析
【清华伯克利】提出全新算法RPG,通过奖励随机化发现多智能体游戏中多样性策略行为。相关推荐
- UC伯克利提出小批量MH测试:令MCMC方法在自编码器中更强劲
转载请注明出处:乐投网 - UC伯克利提出小批量MH测试:令MCMC方法在自编码器中更强劲 近日伯克利大学官方博客发文提出小批量 MH(Minibatch Metropolis-Hastings),即 ...
- Deepmind“好奇心”强化学习新突破!改变奖励机制,让智能体不再“兜圈子”
来源:Google AI 作者:Nikolay Savinov, Timothy Lillicrap, 编译:大明 [新智元导读]Google.Deepmind和苏黎世联邦理工学院的研究人员提出&qu ...
- 【图解算法面试】记一次面试:说说游戏中的敏感词过滤是如何实现的?
版权声明:本文为苦逼的码农原创.未经同意禁止任何形式转载,特别是那些复制粘贴到别的平台的,否则,必定追究.欢迎大家多多转发,谢谢. 小秋今天去面试了,面试官问了一个与敏感词过滤算法相关的问题,然而小秋 ...
- 基于Minimax算法与α-β剪枝使用pygame实现可视化智能跳棋游戏
这里的跳棋指英国跳棋,具体规则就不再提了. 算法这里不做介绍,网上已经有很多的解释说明.在具体实现的时候,需要注意的是在计算候选方案的获利时同时要保存候选方式.通过算法获得最佳候选方案并返回.另外,可 ...
- 【Nature重磅】OpenAI科学家提出全新强化学习算法,推动AI向智能体进化
深度强化学习实验室 官网:http://www.neurondance.com/ 论坛:http://deeprl.neurondance.com/ 编辑:DeepRL 近年来,人工智能(AI)在强化 ...
- ICLR 2022 | 绝艺学会打麻将,腾讯AI Lab提出全新策略优化算法ACH
感谢阅读腾讯AI Lab微信号第144篇文章.本文介绍「绝艺」在二人麻将游戏环境取得的进展,相关算法及benchmark已开源,论文被机器学习国际顶会 ICLR 2022 接收. 「绝艺」是腾讯AI ...
- DeepMind提出强化学习新算法,教智能体从零学控制
来源:人工智能和大数据 摘要:3月2日,DeepMind发表博客文章,提出一种称为SAC-X(计划辅助控制)的新学习范式,旨在解决让AI以最少的先验知识,从头开始学习复杂控制问题的挑战. 这在真实环境 ...
- android德州扑克计算器,学界 | 一台笔记本打败超算:CMU冷扑大师团队提出全新德扑AI Modicum...
原标题:学界 | 一台笔记本打败超算:CMU冷扑大师团队提出全新德扑AI Modicum 选自arXiv 参与:路.晓坤 CMU 冷扑大师团队在读博士 Noam Brown.Tuomas Sandho ...
- 不用地图如何导航?DeepMind提出新型双路径强化学习「智能体」架构
来源:deepmind.arXiv 作者:Piotr Mirowski.Matthew Koichi Grimes.Mateusz Malinowski.Karl Moritz Hermann.Kei ...
最新文章
- JavaScript中的+0与-0
- 【JAVA秒会技术之秒杀面试官】JavaSE常见面试题(二)
- mysql函数(五.流程控制函数)
- 查看oracle空间使用率,Oracle 查看表空间使用率
- GoogLeNet的心路历程(一)
- 动态风云--互联网感言(三)
- mysql经典sql语句大全_经典SQL语句大全
- xsd文件规则和语法
- 一次函数的斜率公式_直线斜率k的公式
- 使用OBS屏幕录制时色彩错误问题解决方案
- 2021触摸精灵之问道脚本教学
- python3ide安卓版官网下载_Pydroid3官方版-Pydroid3最新版下载v4.01 - 7230手游网
- java语言实现视频音频采集_详解js的视频和音频采集
- VOT中的EAO评判指标
- 为什么C语言要有头文件(补充)
- Meta被裁员工流向TikTok/ 比亚迪半导体IPO终止/ NASA登月火箭今日发射…今日更多新鲜事在此...
- C语言 | 结构体成员数组赋值的问题
- ensp学习 vlan / 路由 DHCP动态分配IP
- 获取电脑磁盘ID CPUID
- 苹果8wifi找不到服务器,iphone8连不上wifi怎么办?
热门文章
- 67705-77-5,Bromo-PEG5-bromide,Br-PEG5-Bromide的分子式是C12H24Br2O5
- 超详细Eclipse配置Tomcat配置教程
- Autodesk 123D Design最新中文版详细安装教程!
- tinyurl短链接
- pat basic 1071 小赌怡情
- 解决Linux虚拟机无法打开,报无法打开虚拟机“Kylin” (D:\javaToil\linux\Kylin\Kylin.vmx): 虚拟机似乎正在使用中
- 一路上我不停的嘱咐着司机
- Java岗大厂面试百日冲刺 - 日积月累,每日三题【Day7】 —— 数据库2(事务)
- 阿克曼函数推导过程(m=3)
- web前端开发技术期末考试_Web前端开发技术期末试题与答案2