文章目录

  • 所解决的问题?
  • 背景
  • 所采用的方法?
  • 取得的效果?
  • 论文小节
  • 所出版信息?作者信息?
  • 参考链接
  • 扩展阅读
  • 论文题目:Asynchronous Methods for Deep Reinforcement Learning

所解决的问题?

  在强化学习算法中agent所观测到的data是非平稳和强相关( non-stationarystrongly correlated)。通过设置memory的方式可以减少非平稳性和解耦轨迹之间的相关性,但是这样会限制这些方法只能去使用off-policyRL算法,并且会增加额外的运算。

  作者主要是通过多个智能体并行地采样数据,以一种更加平稳的处理方式(more stationary process,传递梯度参数) 来解耦智能体数据采样数据之间的相关性,并且可以使用on-policy的策略。

背景

  在此之前也有一些研究,比如The General Reinforcement Learning Architecture (Gorila)中:actor与环境互动采样(多台电脑),将数据放入replay memory中,learnerreplay memory中获取数据,并计算DQN算法所定义的Loss梯度,但是这个梯度并不用于更新learner的参数,梯度信息被异步地分发到参数服务中心(central parameter server),去更新一个中心模型的副本,更新完的policy参数在隔固定步数发送到actor中去。(learnertargetcentral parameter server所更新的参数更新learner)。流程图如下所示:

  还有一些研究将Map Reduce framework引入用于加快矩阵运算,(并不是加快采样)。也还有一些工作是learner之间通过通讯共享一些参数信息。

所采用的方法?

  作者所使用的方法与Gorila框架的方法类似,但是并没有用多台机器和参数服务器(parameter server),而是使用一个多线程的GPU在单台机器上运行,每一个线程上都有一个learner,它们采样的数据就更加丰富了,多个learner online更新最后汇总梯度,其实也是相当于切断了数据之间的关联性。因此作者没有使用replay memory而是对每个learner使用不同的exploration policy,因此这种方法也可以使用on-policy的强化学习算法,比如sarsa这种。将其用于Q-Learning算法的话,可以得到如下单线程learner伪代码:

  对于actor-critic框架,单线程learner伪代码如下所示:

取得的效果?

  所需的计算资源更小,使用一个multi-core CPU就可以进行训练。比较了在Nvidia K40 GPU上训练的DQN算法的学习速度和在五个Atari 2600游戏上使用16个CPU核心训练的异步方法:

  还有一些什么鲁棒性地分析可以参考原文,这里就不说了,在讨论部分作者强调了,并不是说experience replace不好,把其引入进来可能效果会改进采样效率,可能会使得效果更好。

论文小节

  整个网络中有多个local worker,一个global worker。多个local worker异步更新,更新完的参数传到global worker中去。local worker采样到新的样本之后,在更新之前需要把global worker中的参数拉取过来之后再进行更新,更新之后再传到global worker中去。

  这种方式只能是CPU层面的并行,之后的A2C,同步版本的,每一个worker仅采集数据,然后集中起来通过GPU进行更新,只传数据。

所出版信息?作者信息?

  这篇文章是ICML2016上面的一篇文章。第一作者Volodymyr MnihToronto大学的机器学习博士,师从Geoffrey Hinton,同时也是谷歌DeepMind的研究员。硕士读的Alberta大学,师从Csaba Szepesvari

参考链接

  1. The General Reinforcement Learning Architecture (Gorila) of (Nairetal.,2015) performs asynchronous training of reinforcement learning agents in a distributed setting. The gradients are asynchronously sent to a central parameter server which updates a central copy of the model. The updated policy parameters are sent to the actor-learners at fixed intervals.
  • 参考文献:Nair, Arun, Srinivasan, Praveen, Blackwell, Sam, Alcicek, Cagdas, Fearon, Rory, Maria, Alessandro De, Panneershelvam, Vedavyas, Suleyman, Mustafa, Beattie, Charles, Petersen, Stig, Legg, Shane, Mnih, Volodymyr, Kavukcuoglu, Koray, and Silver, David. Massively parallel methods for deep reinforcement learning. In ICML Deep Learning Workshop. 2015.
  1. We also note that a similar way of parallelizing DQN was proposed by (Chavez et al., 2015).
  • 参考文献:Chavez, Kevin, Ong, Hao Yi, and Hong, Augustus. Distributed deep q-learning. Technical report, Stanford University, June 2015.
  1. In earlier work, (Li & Schuurmans, 2011) applied the Map Reduce framework to parallelizing batch reinforcement learning methods with linear function approximation. Parallelism was used to speed up large matrix operations but not to parallelize the collection of experience or stabilize learning.
  • 参考文献:Li, Yuxi and Schuurmans, Dale. Mapreduce for parallel reinforcement learning. In Recent Advances in Reinforcement Learning - 9th European Workshop, EWRL 2011, Athens, Greece, September 9-11, 2011, Revised Selected Papers, pp. 309–320, 2011.
  1. (Grounds & Kudenko, 2008) proposed a parallel version of the Sarsa algorithm that uses multiple separate actor-learners to accelerate training. Each actor learner learns separately and periodically sends updates to weights that have changed significantly to the other learners using peer-to-peer communication.
  • 参考文献:Grounds, Matthew and Kudenko, Daniel. Parallel reinforcement learning with linear function approximation. In Proceedings of the 5th, 6th and 7th European Conference on Adaptive and Learning Agents and Multi-agent Systems: Adaptation and Multi-agent Learning, pp. 60– 74. Springer-Verlag, 2008.

扩展阅读

  基于value estimationcritic方法。广泛应用于各种领域,但有一些缺点使它的应用受到局限。如 :

  1. 难以应用到随机型策略(stochastic policy)和连续的动作空间。
  2. value function的微小变化会引起策略变化巨大,从而使训练无法收敛。尤其是引入函数近似(function approximation,FA)后,虽然算法泛化能力提高了,但也引入了bias,从而使得训练的收敛性更加难以保证。

  而基于actor方法通过将策略参数化,从而直接学习策略。这样做的好处是与前者相比拥有更好的收敛性,以及适用于高维连续动作空间及stochastic policy。但缺点包括梯度估计variance比较高,且容易收敛到非最优解。另外因为每次梯度的估计不依赖以往的估计,意味着无法充分利用老的信息。

  但对于AC算法来说其架构可以追溯到三、四十年前。 最早由Witten在1977年提出了类似AC算法的方法,然后Barto, SuttonAnderson等大牛在1983年左右引入了actor-critic架构。但由于AC算法的研究难度和一些历史偶然因素,之后学界开始将研究重点转向value-based方法。之后的一段时间里value-based方法和policy-based方法都有了蓬勃的发展。前者比较典型的有TD系的方法。经典的Sarsa, Q-learning等都属于此列;后者比如经典的REINFORCE算法。之后AC算法结合了两者的发展红利,其理论和实践再次有了长足的发展。直到深度学习(Deep learning, DL)时代,AC方法结合了DNN作为FA,产生了化学反应,出现了DDPGA3C这样一批先进算法,以及其它基于它们的一些改进和变体。可以看到,这是一个先分后合的圆满故事。

【大规模深度强化学习(一) 】深度强化学习中的异步方法(A3C)相关推荐

  1. 『干货』深度强化学习与自适应在线学习的阿里实践

    https://www.toutiao.com/a6683425529313362444/ 2019-04-24 19:44:27 1搜索算法研究与实践 1.1背景 淘宝的搜索引擎涉及对上亿商品的毫秒 ...

  2. 机器学习与深度学习系列连载: 第三部分 强化学习(八) 整合学习与规划 (Alpha Go 基本原理)

    整合学习与规划 本篇之前所有的内容都没有提及到个体如何构建一个模拟环境的模型,自然也没有讲解个体构建一个模拟环境的模型对于解决MDP问题有何帮助. 本篇即关注这两个问题. 通过构建一个模型,个体具备了 ...

  3. 深度强化学习在天基信息网络中的应用——现状与前景

    源自:系统工程与电子技术 作者:唐斯琪  潘志松  胡谷雨  吴炀  李云波 摘 要 未来天基信息网络(space information network, SIN)领域将面临由结构复杂.环境动态.业 ...

  4. 第七章 人工智能,7.1 基于深度强化学习与自适应在线学习的搜索和推荐算法研究(作者:灵培、霹雳、哲予)...

    7.1 基于深度强化学习与自适应在线学习的搜索和推荐算法研究 1. 搜索算法研究与实践 1.1 背景 淘宝的搜索引擎涉及对上亿商品的毫秒级处理响应,而淘宝的用户不仅数量巨大,其行为特点以及对商品的偏好 ...

  5. 打破深度学习局限,强化学习、深度森林或是企业AI决策技术的“良药”

    算法.算力和数据是人工智能时代的三驾马车,成为企业赋能人工智能的动力,但它们自身的特性也为企业和高校在研究和落地应用过程带来了重重挑战.比如,训练算法的成本高昂,数据从采集.处理到存储已面临瓶颈,目前 ...

  6. 深度强化学习_深度学习理论与应用第8课 | 深度强化学习

    本文是博雅大数据学院"深度学习理论与应用课程"第八章的内容整理.我们将部分课程视频.课件和讲授稿进行发布.在线学习完整内容请登录www.cookdata.cn 深度强化学习是一种将 ...

  7. 【强化学习】深度强化学习入门介绍

    深度强化学习是一种机器学习,其中智能体(Agent,也翻译作代理)通过执行操作(Action)和查看结果(Reward)来学习如何在环境中采取最佳的动作或策略. 自 2013 年Deep Q-Lear ...

  8. 【深度学习】深度学习的发展方向: 深度强化学习!

    作者:莫凡&马晶敏,上海交通大学,Datawhale成员 深度学习不够智能,强化学习又太抽象.深度强化学习是两套理论体系乘风破浪以后的成团产物,其骨架来自强化学习,而灵魂由深度学习赋予.深度强 ...

  9. 一周上榜新书:强化学习、深度学习最受程序员关注

    4月出版了很多新书,上周有两本书最受程序员关注,<动手学强化学习>和<PyTorch深度学习实战>位于一周榜单TOP10.现在和小编一起来看看有哪些新书上榜. 1.动手学强化学 ...

  10. 基于强化学习与深度强化学习的游戏AI训练

    github地址 一.摘要 在本次大作业中由两个项目组成. 第一个小项目即为简单AI走迷宫游戏,通过强化学习的Q-learning算法,对AI进行训练来让其能以大概率找打一条通关路径并基本按照该路径进 ...

最新文章

  1. vuecli3 引入全局scss变量_vuecli3 从搭建到优化
  2. 业界丨几张图带你看懂人工智能产业
  3. 支持html5浏览器速查
  4. 杨彪 | 一次线上游戏卡死的解决历程(文末赠书福利)
  5. NPM:Cannot read property 'pause' of undefined
  6. android 请求参数打印,android retrofit 请求参数格式RequestBody的方法
  7. 千兆以太网线和水晶头的制作方法
  8. TODO:macOS上ThinkPHP5和Semantic-UI集成
  9. php curl 伪造IP来源的代码分享
  10. JUC中的Atomic原子类
  11. LeetCode常见报错解释
  12. ecosys m5021cdn_京瓷ECOSYS M5021cdn驱动
  13. Nuxt.js mini聊天室开发 (mini-chatroom)
  14. Linux team多网卡绑定
  15. 腾讯微云和坚果云哪个好用?
  16. java.sql.SQLException: The connection property ‘zeroDateTimeBehavior‘ acceptable values are: ‘CONVER
  17. 【推荐系统】Criteo数据集介绍
  18. OpenGL南邮计算机图形学实验报告二——两个纹理的渐变变换和移动
  19. YJ智能框架--面向对象方面编程
  20. 华为MCR·第4篇:客户档案管理管什么

热门文章

  1. 安全微软微软安全新闻聚焦-双周刊第三十二期
  2. Percona XtraBackup 2.0.3 发布
  3. dede首页如何调用单页文档内容标签
  4. 【转载】C#字符串测试---------字符串截取,字符串分割
  5. 论Web控件开发 - 完美上传下载控件“新”(一)
  6. HCIE Security 防火墙转发流程及相关知识点 备考笔记(幕布)
  7. HCIE Security SSL 备考笔记(幕布)
  8. docker容器中的网络原理(单机模式下的容器网络)
  9. Android调试神器stetho使用详解和改造
  10. Webpack使用教程五(Babel)