深度强化学习实验室

官网:http://www.neurondance.com/

论坛http://deeprl.neurondance.com/

近年来,强化学习(RL)在游戏界的成功在AI界可谓一石激起千层浪,不管是继围棋之后又攻克的通用棋类游戏,还是在Video Game里创造新高的AI,亦或是利用“左右互博”来自博弈的OpenAI,结合强化学习技术的 AI在多个游戏场景中的都已经超越了人类顶尖玩家。

然而,当前的强化学习算法依赖数万次、乃至数百万次对局的试错,游戏之类的虚拟场景尚可低成本试错,但是,在实际场景中试错代价高昂,无法进行大量采样,因而难以训练出有效的决策模型,导致落地困难

目前国际上强化学习领域的主要研究机构,包括Google、DeepMind、OpenAI、UC Berkeley、Stanford等都在对强化学习落地技术积极开展研究,这个细分方向通常被称为“离线强化学习(Offline RL)”,但从相关公开报告中,都难以瞥见强化学习可以落地的技术

近期,DeepMind、Google Brain等各自发布了 “离线强化学习”测试集,显示出目前主流技术均未表现出显著的有效性。强化学习落地技术呈现出潜能巨大、亟需突破、竞争激烈的态势。

7月23日,针对强化学习落地难题,ICML 2021将举办“Reinforcement Learning for Real Life(现实生活中的强化学习)”主题研讨会。此次研讨会主题设置为“RL for Real Life”,彰显了强化学习领域长期存在的困境:强化学习在现实世界中迟迟无法完成落地。而与此同时,强化学习背后隐藏着巨大商业价值已成为共识,一旦完成落地,商业前景极为广阔。强化学习如何落地?如何在Real Life(现实世界)中体现出商业价值?为此Workshop邀请了DeepMind,Google、Polixir(南栖仙策)、Facebook,Microsoft,MathWorks、Nvidia、Adobe、Didi(美国)等众多商业公司,共同探讨强化学习落地难题,寻找突破路径。

研讨会围绕Real Life(现实世界)主题设置讨论小组,议题包括“Foundation”(基础)、“Research-to-RealLife Gap”(研究与现实世界的差距)、“Recommender Systems”(推荐系统)、“Robotics”(机器人)、“Explainability & Interpretability”(可解释性)和“Operations Research”(运筹学)。

在以上主题中,“Research-to-RealLife Gap”(研究与现实世界的差距)专门关注强化学习当前的研究与现实应用之间的鸿沟、聚焦强化学习落地的关键问题,受邀参加主题讨论的有来自MathWorks(出品Matlab)的Craig Buhr、微软的Jeff Mendenhall、滴滴出行(美国)的Xiaocheng Tang、创业企业Borealis AI的Kathryn Hume,以及Polixir(南栖仙策)创始人、南京大学教授俞扬(Yang Yu)。俞扬教授也是本次Workshop中唯一来自大陆地区的讨论成员。

RL Research-to-RealLife Gap 小组

此次Workshop不乏来自MIT、CMU、Harvard等国际著名高校的学者。其中Thomas Dietterich 是国际机器学习创始主席、美国白宫《美国国家人工智能研究与发展策略规划》起草人;Fei Fang 获得IEEE国际人工智能十大新星(2020)、IJCAI 计算机与思维奖(2021),其他参会组员均为强化学习研究领域一流学者,共同激撞强化学习学术前沿的思想火花。

RL Foundation 小组

RL + Recommender Systems 小组

RL + Robotics Panel 小组

RL Explainability & Interpretability 小组

RL + Operations Research 小组

众多商业巨头公司聚焦此次研讨会,凸显出强化学习落地技术亟需突破的迫切性。作为全球率先实现强化学习落地的公司,Polixir(南栖仙策)也是大陆唯一受邀企业,并将在研讨会上分享强化学习落地过程,以及南栖仙策在现实世界中的落地案例。

ICML2021 RL4RealLife Workshop 更多活动详情,访问

https://sites.google.com/view/RL4RealLife

总结1:周志华 || AI领域如何做研究-写高水平论文

总结2:全网首发最全深度强化学习资料(永更)

总结3:  《强化学习导论》代码/习题答案大全

总结4:30+个必知的《人工智能》会议清单

总结52019年-57篇深度强化学习文章汇总

总结6:   万字总结 || 强化学习之路

总结7:万字总结 || 多智能体强化学习(MARL)大总结

总结8:深度强化学习理论、模型及编码调参技巧

第112篇:基于Novelty-Pursuit的高效探索方法

第111篇:Reward is enough奖励机制实现各种目标。

第110篇:163篇ICML2021强化学习领域论文汇总

第109篇:【Easy-RL】200页强化学习总结笔记

第108篇:清华大学李升波老师《强化学习与控制》

第107篇:阿里巴巴2022届强化学习实习生招聘

第106篇:奖励机制不合理:内卷,如何解决?

第105篇:FinRL: 一个量化金融自动交易RL库

第104篇:RPG: 通过奖励发现多智能体多样性策略

第103篇:解决MAPPO(Multi-Agent PPO)技巧

第102篇:82篇AAAI2021强化学习论文接收列表

第101篇:OpenAI科学家提出全新强化学习算法

第100篇:Alchemy: 元强化学习(meta-RL)基准环境

第99篇:NeoRL:接近真实世界的离线强化学习基准

第98篇:全面总结(值函数与优势函数)的估计方法

第97篇:MuZero算法过程详细解读

第96篇:  值分布强化学习(Distributional RL)总结

第95篇:如何提高"强化学习算法模型"的泛化能力?

第94篇:多智能体强化学习《星际争霸II》研究

第93篇:MuZero在Atari基准上取得了新SOTA效果

第92篇:谷歌AI掌门人Jeff Dean获冯诺依曼奖

第91篇:详解用TD3算法通关BipedalWalker环境

第90篇:Top-K Off-Policy  RL论文复现

第89篇:腾讯开源分布式多智能TLeague框架

第88篇:分层强化学习(HRL)全面总结

第87篇:165篇CoRL2020 accept论文汇总

第86篇:287篇ICLR2021深度强化学习论文汇总

第85篇:279页总结"基于模型的强化学习方法"

第84篇:阿里强化学习领域研究助理/实习生招聘

第83篇:180篇NIPS2020顶会强化学习论文

第82篇:强化学习需要批归一化(Batch Norm)吗?

第81篇:《综述》多智能体强化学习算法理论研究

第80篇:强化学习《奖励函数设计》详细解读

第79篇: 诺亚方舟开源高性能强化学习库“刑天”

第78篇:强化学习如何tradeoff"探索"和"利用"?

第77篇:深度强化学习工程师/研究员面试指南

第76篇:DAI2020 自动驾驶挑战赛(强化学习)

第75篇:Distributional Soft Actor-Critic算法

第74篇:【中文公益公开课】RLChina2020

第73篇:Tensorflow2.0实现29种深度强化学习算法

第72篇:【万字长文】解决强化学习"稀疏奖励"

第71篇:【公开课】高级强化学习专题

第70篇:DeepMind发布"离线强化学习基准“

第69篇:深度强化学习【Seaborn】绘图方法

第68篇:【DeepMind】多智能体学习231页PPT

第67篇:126篇ICML2020会议"强化学习"论文汇总

第66篇:分布式强化学习框架Acme,并行性加强

第65篇:DQN系列(3): 优先级经验回放(PER)

第64篇:UC Berkeley开源RAD来改进强化学习算法

第63篇:华为诺亚方舟招聘 || 强化学习研究实习生

第62篇:ICLR2020- 106篇深度强化学习顶会论文

第61篇:David Sliver 亲自讲解AlphaGo、Zero

第60篇:滴滴主办强化学习挑战赛:KDD Cup-2020

第59篇:Agent57在所有经典Atari 游戏中吊打人类

第58篇:清华开源「天授」强化学习平台

第57篇:Google发布"强化学习"框架"SEED RL"

第56篇:RL教父Sutton实现强人工智能算法的难易

第55篇:内推 ||  阿里2020年强化学习实习生招聘

第54篇:顶会 || 65篇"IJCAI"深度强化学习论文

第53篇:TRPO/PPO提出者John Schulman谈科研

第52篇:《强化学习》可复现性和稳健性,如何解决?

第51篇:强化学习和最优控制的《十个关键点》

第50篇:微软全球深度强化学习开源项目开放申请

第49篇:DeepMind发布强化学习库 RLax

第48篇:AlphaStar过程详解笔记

第47篇:Exploration-Exploitation难题解决方法

第46篇:DQN系列(2): Double DQN 算法

第45篇:DQN系列(1): Double Q-learning

第44篇:科研界最全工具汇总

第43篇:起死回生|| 如何rebuttal顶会学术论文?

第42篇:深度强化学习入门到精通资料综述

第41篇:顶会征稿 ||  ICAPS2020: DeepRL

第40篇:实习生招聘 || 华为诺亚方舟实验室

第39篇:滴滴实习生|| 深度强化学习方向

第38篇:AAAI-2020 || 52篇深度强化学习论文

第37篇:Call For Papers# IJCNN2020-DeepRL

第36篇:复现"深度强化学习"论文的经验之谈

第35篇:α-Rank算法之DeepMind及Huawei改进

第34篇:从Paper到Coding, DRL挑战34类游戏

第33篇:DeepMind-102页深度强化学习PPT

第32篇:腾讯AI Lab强化学习招聘(正式/实习)

第31篇:强化学习,路在何方?

第30篇:强化学习的三种范例

第29篇:框架ES-MAML:进化策略的元学习方法

第28篇:138页“策略优化”PPT--Pieter Abbeel

第27篇:迁移学习在强化学习中的应用及最新进展

第26篇:深入理解Hindsight Experience Replay

第25篇:10项【深度强化学习】赛事汇总

第24篇:DRL实验中到底需要多少个随机种子?

第23篇:142页"ICML会议"强化学习笔记

第22篇:通过深度强化学习实现通用量子控制

第21篇:《深度强化学习》面试题汇总

第20篇:《深度强化学习》招聘汇总(13家企业)

第19篇:解决反馈稀疏问题之HER原理与代码实现

第18篇:"DeepRacer" —顶级深度强化学习挑战赛

第17篇:AI Paper | 几个实用工具推荐

第16篇:AI领域:如何做优秀研究并写高水平论文?

第15篇:DeepMind开源三大新框架!

第14篇:61篇NIPS2019DeepRL论文及部分解读

第13篇:OpenSpiel(28种DRL环境+24种DRL算法)

第12篇:模块化和快速原型设计Huskarl DRL框架

第11篇:DRL在Unity自行车环境中配置与实践

第10篇:解读72篇DeepMind深度强化学习论文

第9篇:《AutoML》:一份自动化调参的指导

第8篇:ReinforceJS库(动态展示DP、TD、DQN)

第7篇:10年NIPS顶会DRL论文(100多篇)汇总

第6篇:ICML2019-深度强化学习文章汇总

第5篇:深度强化学习在阿里巴巴的技术演进

第4篇:深度强化学习十大原则

第3篇:“超参数”自动化设置方法---DeepHyper

第2篇:深度强化学习的加速方法

第1篇:深入浅出解读"多巴胺(Dopamine)论文"、环境配置和实例分析

ICML RL4RealLife|聚焦强化学习落地难题,学术与商业巨头齐聚【7月23日,不见不散】...相关推荐

  1. Unity红球吃绿球强化学习小任务——Ubuntu20.04系统于2022年2月26日实现

    Unity红球吃绿球强化学习小任务--Ubuntu20.04系统于2022年2月26日实现 Unity红球吃绿球强化学习小任务 一.主机环境参数说明 二.具体教程以之前提供的视频介绍为主,需要修改的章 ...

  2. 【赠书】深度强化学习落地指南,来自一线工程师的经验!

    ‍‍ 今天要给大家介绍的书是深度强化学习落地指南,本书是海康威视研究院任算法专家工作总结,对强化学习落地实践中的工程经验和相关方法进行了系统归纳. 本书内容 本书一共分为7章,包括强化学习的需求分析和 ...

  3. 深度强化学习落地指南:弥合DRL算法原理和落地实践之间的断层 | 文末送书

    魏宁 著 电子工业出版社-博文视点 2021-08-01 ISBN: 9787121416446 定价: 109.00 元 新书推荐 ????今日福利 |关于本书| 本书从工业界一线算法工作者的视角, ...

  4. 2:pytorch深度强化学习落地:以打乒乓小游戏为例

    Pytorch落地实践 2:pytorch深度强化学习落地:以打乒乓小游戏为例 一.需求分析 二.动作空间设计 三.状态空间设计 四.回报函数设计 五.算法选择 六.训练调试 总结 2:pytorch ...

  5. 深度强化学习落地指南总结(二)-动作空间设计

    本系列是对<深度强化学习落地指南>全书的总结,这本书是我市面上看过对深度 强化学习落地讲的最好的一本书,大大拓宽了自己对RL落地思考的维度,形成了强化学习落地分析的一套完整框架,本文内容基 ...

  6. 深度强化学习落地方法论(8)——新书推荐《深度强化学习落地指南》

    知乎原文链接 文章目录 记一次成功的Exploration DRL落地中的"武德"问题 本书的创作理念 关于强化学习 结语 大家好,已经很久没有更新这个专栏了,希望当初关注它的知友 ...

  7. WPF学习开发客户端软件-任务助手(下 2015年2月4日代码更新)

    时光如梭,距离第一次写的 WPF学习开发客户端软件-任务助手(已上传源码)  已有三个多月,期间我断断续续地对该项目做了优化.完善等等工作,现在重新向大家介绍一下,希望各位可以使用,本软件以实用性为主 ...

  8. Silverlight/Windows8/WPF/WP7/HTML5周学习导读(9月17日-9月23日)

    Silverlight/Windows8/WPF/WP7/HTML5周学习导读(9月17日-9月23日) 本周Silverlight学习资源更新 Silverlight动画设计中对平移动画的一点体会 ...

  9. Silverlight/Windows8/WPF/WP7/HTML5周学习导读(7月23日-7月29日)

    Silverlight/Windows8/WPF/WP7/HTML5周学习导读(7月23日-7月29日) 本周Silverlight学习资源更新 Silverlight OOB模式下COOKIE处理 ...

最新文章

  1. JavaScript实现鼠标拖拽登录框
  2. DCGAN论文笔记+源码解析
  3. DIRECTDRAW 1:创建一个简单的DIRECTDRAW程序
  4. 玩转Win10的45个快捷键
  5. 如何解决实时历史数据库存储成本问题?
  6. flymcu无法打开串口_西门子1200与其他PLC/组态软件无线串口通讯(自由口)
  7. 作者:李超(1988-),男,上海交通大学硕士生,主要研究方向为大数据网络。...
  8. [译] Node.js, Express.js 搭建 HTTP/2 服务器
  9. Complex类与运算符重载
  10. 新型肺炎数据,可以用Excel绘制成3维地图
  11. win10任务栏太宽而且调不了_win10任务栏变宽了怎么恢复原来的_win10任务栏变宽拉不下去怎么办-爱纯净...
  12. 我如何学会欣赏求职者
  13. php计算ip掩码,php进行ip地址掩码运算处理的方法
  14. 大话数据结构 —— 2.9 算法时间复杂度(合集)
  15. 上传图片报413错误
  16. receptive field
  17. opencv 识别长方形_使用OpenCV检测图像中的矩形
  18. 嵌入式软件开发为什么需要DevOps?
  19. tp5:为什么find()出来的数据有时候可以用toArray() 有时候会报错?
  20. Android使用bit.ly的api获取url 短连接

热门文章

  1. 很好很强盛女生穿衣技巧
  2. python实现图像自动亮度对比度
  3. 对比面向过程方法和面向对象方法的优劣(全)
  4. 盘点09年.NET平台大事记
  5. 【硬创邦】跟hoowa学做智能路由(十二):网络音箱之声卡驱动
  6. 【Python小游戏】用AI玩Python小游戏FlappyBird【源码】
  7. 骁龙835在Windows 10上的性能表现有望改善
  8. 一个基于Flask框架做的仿QQ邮箱系统(收发邮件、贝叶斯模型训练、垃圾邮件过滤、个性化标签)
  9. 支付宝 android 面试,【支付宝Color支付宝面试题】面试问题:Android… - 看准网
  10. MySQL模糊查询详解