编者按:12月6日至12日,国际人工智能顶级会议 NeurIPS 2020 在线上举办。相比前几年,NeurIPS2020 无论是论文的投稿数量还是接收率都创下了记录:论文投稿数量创历史最高记录,相比去年增长了38%,接收率却为史上最低。

上周我们与大家分享了,NeurIPS 2020 | 微软亚洲研究院论文摘录之目标检测篇。今天,我们精选了微软亚洲研究院入选 NeurIPS 2020 中有关强化学习和生成式对抗网络 GAN 领域的工作,为大家进行介绍。

RD$^2$: Reward Decomposition with Representation Disentanglement

基于表示分解的奖励分解

论文链接:https://paperswithcode.com/paper/rd-2-reward-decomposition-with-representation

强化学习算法可以由更细粒度的奖励函数大幅提升样本效率,但自主学习该细粒度奖励函数的方法目前还很不成熟。在此前的工作中,尚未有广泛通用的学习细粒度奖励函数的工作。Hybrid Reward Structure (HRA) 中,细粒度奖励函数是手动给出的,并且验证了细粒度奖励函数对样本效率的提升。而 Independently-Obtainable Reward Functions, DRDRL 则是将细粒度奖励函数的学习与玩家的策略绑定,该做法的好处是便于定义,但与此同时缺乏了通用性且难以在下游任务中利用。

算法RD$^2$

受到最近关于非耦合表示(disentangled representation)工作的启发,微软亚洲研究院的研究员们提出了新算法 RD$^2$。该算法能够以更通用的方式来定义并学习一个最优细粒度奖励函数,而非受限于手动给出或依赖于强化学习本身的策略。

该研究提出的最优细粒度奖励函数的定义主要基于以下几点:

  1. 原奖励函数可线性分解为多个具有“独特性”的子奖励函数;

  2. 该线性分解不能是简单的;

  3. 该线性分解需要是最简的。

为了便于大家理解,这里用以一个简单的游戏作为例子(如下图所示)。该游戏的规则为玩家碰到金块获得1分,碰到怪物获得-1分。

理想的最优细粒度奖励函数是将金块相关的分数与怪物相关的分数分到两个不同的子奖励函数上。以下展示了三种奖励分解,以及与每个子奖励相关的子状态:在情况1中,两个子奖励函数都包含了金块部分的奖励,因此第二个子奖励不独特;情况2是一种简单的分解,即令其中一个子奖励函数等于原奖励函数;情况3则是满足上述最优细粒度奖励函数的一种情况。

情况1:

情况2:

情况3:

将该认识以严谨的数学语言表达出来,就形成了以下定义:

由于直接计算或估算信息熵的代价往往较为巨大,所以研究员们给出了深度学习情况下无需计算信息熵的近似优化目标:

实验结果

研究员们在简单任务(前文提到的游戏)和复杂任务(Atari 游戏)上分别进行了实验。在简单任务上,输入玩家、金块、怪物的位置坐标,输出预测的两个子奖励,用研究提出的优化目标训练网络。

训练结果如图1所示,可以看到通过优化,能够学出来最优的掩码:网络输出的第一个分支包含了玩家和金块的位置坐标,网络输出的第二个分支包含了玩家和怪物的位置坐标。同时,如表1所示,算法可以精确地将两种子奖励分开。

图1:简单任务上的训练曲线图

表1:简单任务上的奖励分解

在复杂任务 Atari 游戏上则在具有子奖励的一些环境上进行实验。为了带来更强的表达力,研究员们引入了状态依赖的掩码(mask)网络,并在实验中,用 Rainbow 和 DRDRL 作为基线算法。

首先,用 RD$^2$ 学习奖励分解,图2展示了分解的效果,可以看到,在复杂的图像任务上,算法 RD$^2$ 同样能够比较精确地把不同的自奖励区分开,这也证明了该算法的有效性。

图2:分解效果展示

为了进一步理解算法 RD$^2$ 的优势,研究员们用显着图 (saliency map)对网络的不同分支做了可视化,尝试观察不同分支所关注的输入。如图3所示,不同的分支会关注输入的不同部分,进而帮助该分支预测其对应的子奖励。这证明了该算法可以学出有意义的非耦合表示。

图3:不同分支可视化

最后,研究员们尝试用学习出来的子奖励分解直接训练子 Q 网络 (sub-Q network),用以下的 sub-Q TD error 作为额外的优化目标。

研究发现,用训练出来的子奖励直接训练子 Q 网络,会大大加速网络的训练过程,相比于 Rainbow 和 DRDRL 来说,算法 RD$^2$ 带来了样本效率的巨大提升。

图4:在一些 Atari 游戏上的训练曲线

Sampling-Decomposable Generative Adversarial Recommender

如何为推荐系统的训练快速生成并有效利用负样本?

论文链接:https://arxiv.org/abs/2011.00956

代码链接:https://github.com/BinbinJin/SD-GAR

IRGAN 是第一篇将生成式对抗网络(GAN)框架应用于信息检索(包括推荐系统)的研究工作。在该工作中,IRGAN 训练了一个生成器和一个判别器,其中生成器用来自适应地生成合适的负样本以帮助判别器训练;而判别器则是用来判断样本是来自用户真实的反馈还是生成器生成的样本。通过两者交替式对抗性地训练达到互相提升效果的目的。

通过对 IRGAN 的理论分析,可以发现其存在两个局限性:

  1. 在 IRGAN 中,最后采用生成器用于推荐,然而生成器是用来生成负样本的,判别器应当真正地用于推荐。在真实情况中,判别器用于推荐的效果并不好,可能的原因是通过训练得到的生成器与最优形式的生成器存在一定的偏差,最终导致判别器无法训练的非常好。

  2. 由于生成器得到的分布是需要经过 softmax 操作的,因此从生成器中进行采样是非常费时的,尤其当商品数量达到百万、千万级别时,采样的效率非常低。

为此,为了克服 IRGAN 中存在的局限性,微软亚洲研究院和中国科学技术大学的研究员们提出了采样可分解的生成对抗推荐系统 SD-GAR。

SD-GAR

图5:SD-GAR 框架图

从对 IRGAN 的理论分析可知,生成器的最优形式为 P_(G_T^⋆ ) (⋅│c)。为了避免每次对大量的商品使用softmax操作,所以引入另一个生成器 Q_G (⋅│c) 来估计 P_(G_T^⋆ ) (⋅│c)。同时,为了补偿两者之间的偏差,微软亚洲研究院的研究员们提出使用自归一重要性采样来估计目标函数:

接下来,一个重要的目标是如何设计得到一个高效的生成器 Q_G (⋅│c)。传统生成器的做法是为每一个用户和每一个商品分别设置一个隐向量,最后通过矩阵乘法和 softmax 得到用户对每一个商品的喜好分布。这种方法十分低效。为此,该研究提出了采样可分解的生成器,对于该生成器,使用 Vose-Alias 算法,可以在 O(1) 的时间复杂度内采样一个样本。

根据对估计量 V_T (D,S) 的分析,当 Q_G (i│c)∝P_(G_T^⋆ ) (i│c)|f_c (i)-μ_c| 时,估计量的方差达到最小。基于此研究员们提出了生成器的优化目标:

为了进行优化,研究员们提出用交替优化算法。假设用户数为 N,商品数为 M,隐向量维度为 K,商品采样数量为 |S_c|,用户采样数量为 |S_i|,SD-GAR 的时间复杂度为 O(NK|S_c|+MK|S_i|)。由于 K、|S_c|、|S_i|≪N,M,因此训练生成器非常高效。

IRGAN 的时间复杂度是 O(NMK),因此 SD-GAR 算法相比于 IRGAN 是更加高效的。

实验结果

研究员们在 CiteULike、Gowalla、Amazon、MovieLens10M、Echonest 五个数据集上进行了验证。从表2上可以看到,算法 SD-GAR 显著优于 SA、IRGAN、DNS、CML、WARP、AOBPR、BPR 等推荐算法。相比于最好的基准算法 SA,其在NDCG@50 指标上要平均高出10.5%。

在算法效率上,对比 SD-GAR 和 IRGAN 在判别器和生成器上的训练速度。如图6左所示,在 Amazon(Echonest)数据集上,SD-GAR 的训练速度要明显快于 IRGAN。在图6右中可以看出随着商品数量的增加,SD-GAR 的训练时间增长率(实线)要明显低于 IRGAN 的训练时间增长率(虚线)。

表2:和基准算法的对比

图6:时间开销对比

Learning Semantic-aware Normalization for Generative Adversarial Networks

走向更加真实、可控的图像生成:语义感知生成模型

代码链接:https://github.com/researchmm/SariGAN

图像生成任务旨在学习从隐空间到图像空间的映射,而图像空间是由语义组成的。将隐空间根据这些语义进行解耦可以大大简化生成任务:从学习隐空间对语义组合的映射简化为学习隐空间对每个语义的映射。

基于语义对隐空间解耦,需要两步:1)找到生成网络中与语义相关的表达并将不同语义分开;2)挖掘并利用以上语义表达和隐空间的关系。

对于第一步,通过训练生成式对抗网络(GAN)可以得到粗略的语义表达。于是微软亚洲研究院的研究员们设计了一个基于相似度的语义分组模块,这个模块的基本想法是:如果两个卷积通道的语义相似,那么它们的分组信息也应该相似。使用 MSE 损失对此进行约束,通过优化可以得到每层卷积中各个通道的分组信息。

对于第二步,AdaIN 操作提供了解决思路。AdaIN 操作逐通道得对卷积通道和隐空间进行融合,由此,卷积通道的语义就可以传递到隐空间。研究员们提出让学到的语义分组信息在此融合过程中发挥作用。具体来说,就是用 Group AdaIN 融合每一个语义的隐空间信息和对应语义的卷积通道:

此外,研究员们还设计了一种 AdaGN(自适应分组归一化)操作,通过学习并控制不同组之间的相对重要性将不同组的特征进行融合:

最后,三个损失函数被提出用来优化整个网络:对抗损失,分组损失,以及互信息损失:

以上设计可以使网络对隐空间基于语义解耦,从而生成更真实的图像,并且进行语义级别的控制。整个框架图如图7所示:

图7:语义感知生成模型框架图

实验结果

研究提出的模型在 FFHQ、LSUN CARS 和 LSUNCATS 三个数据集上进行了实验测评,通过图8可以看到该模型可以生成照片级别真实的图像。

图8:可感知语义生成模型在两个数据集上的可视化结果图

图9:可感知语义生成模型和 StyleGAN2 在 LSUN CATS 数据集上的可视化对比结果

图9展示了可感知语义生成模型和 StyleGAN2 在 LSUN CATS 数据集上可视化的对比结果。可以看到,在同样的迭代次数下,该模型可以达到更好的 FID,生成更加真实自然的图片。

图10:图像修复任务上的可视化比较

此外,实验还在基于条件的图像生成任务(图像修复)上进行,如图10所示,可感知语义生成模型可以更好地修复图像。

综上,通过设计语义分组模块和基于分组的隐空间/卷积特征融合方式,可以将语义解耦引入生成网络中,从而生成更真实的图像,并且可以对生成的图像进行语义级别的控制,从而进行图像编辑。

本文作者:赵立、金斌斌、连德富、刘政、郑贺亮、傅建龙

END

备注:强化

强化学习交流群

关注最新最前沿的强化学习技术,

若已为CV君其他账号好友请直接私信。

我爱计算机视觉

微信号:aicvml

QQ群:805388940

微博知乎:@我爱计算机视觉

投稿:amos@52cv.net

网站:www.52cv.net

在看,让更多人看到  

NeurIPS 2020 | 微软亚研院论文摘录之强化学习GAN篇相关推荐

  1. NeurIPS 2020 | 微软亚洲研究院论文摘录之强化学习GAN篇

    编者按:12月6日至12日,国际人工智能顶级会议 NeurIPS 2020 在线上举办.相比前几年,NeurIPS2020 无论是论文的投稿数量还是接收率都创下了记录:论文投稿数量创历史最高记录,相比 ...

  2. 微软亚研院:如何看待计算机视觉未来的走向?

    本文分享自百度开发者中心微软亚研院:如何看待计算机视觉未来的走向? 先说一个现象:在深度学习的驱动下,计算机已经在多个图像分类任务中取得了超越人类的优异表现.但面对一些不寻常的图像,以"深度 ...

  3. 传微软亚研院停招国防七子+北邮实习生,18所「实体清单」高校也在劫难逃?...

      转载于 新智元   编辑:桃子 时光 snailnj [新智元导读]听说微软亚洲研究院要停招国防七子及北邮学生了?根据北邮人论坛上讨论,事实却是如此.那么,究竟为何? 一觉醒来,着实大睁眼. 网传 ...

  4. 无需Grouping,中科大和微软亚研院提出Group-Free的三维物体检测方法,性能远超之前最好方法。...

    ©PaperWeekly 原创 · 作者|刘泽 学校|微软亚洲研究院实习生 研究方向|计算机视觉与深度学习 无需 Grouping,中科大和微软亚研院提出 Group-Free 的三维物体检测方法,性 ...

  5. 微软亚研院创研论坛CVPR2020分享会 圆桌会议 内容小记

    微软亚研院创研论坛CVPR2020分享会 圆桌会议 内容小记 今天观看了微软亚研院举办的 创研论坛 CVPR2020 论文分享会,分享会邀请了计算机视觉领域多个子领域的大佬们分享已发表的CVPR202 ...

  6. 微软亚研院CV大佬代季峰跳槽商汤为哪般?

    整理 | 夕颜 出品 | AI科技大本营(ID:rgznai100) 近日,知乎上一篇离开关于MSRA(微软亚洲研究院)和MSRA CV未来发展的帖子讨论热度颇高,这个帖子以MSRA CV执行研究主任 ...

  7. 微软亚研院:CV领域2019年重点论文推荐

    点击我爱计算机视觉标星,更快获取CVML新技术 微软亚洲研究院是国内顶级CV研究机构,众多CV黑科技的诞生地,2020年始,亚研院盘点了2019年CV领域重点论文,大部分附有开源代码,希望对大家有帮助 ...

  8. ICCV 2019丨微软亚研院精选论文解读

    点击我爱计算机视觉标星,更快获取CVML新技术 编者按:ICCV 2019 正于10月27-11月2日在韩国首尔举行.微软亚洲研究院有15篇论文入选本届 ICCV,内容涵盖空间注意力机制.图像深度估计 ...

  9. 微软亚研院提出用于语义分割的结构化知识蒸馏 | CVPR 2019

    作者 | CV君 来源 | 我爱计算机视觉 今天跟大家分享一篇关于语义分割的论文,刚刚上传到arXiv的CVPR 2019接收论文<Structured Knowledge Distillati ...

最新文章

  1. 【程序人生】这一年 —— 2020
  2. Python 编码规范 PEP 8
  3. cfF. Boring Queries
  4. 在jOOQ之上构建的RESTful JDBC HTTP服务器
  5. MATLAB基础教程(2) 语言基础知识
  6. 关于跨域问题的解决办法
  7. 将connection存放在Threadlocal里和数据库连接池的区别
  8. 2 str转byte失败_linux服务器,JAVA进行word转pdf
  9. 关于加快OpenCV下载速度的解决方法
  10. 0基础也可直接运行的微信表情包批量转换
  11. ROS语音交互系统_(2)利用讯飞TTS实现ROS下语音合成播报
  12. 空间后方交会编程c语言,C语言空间后方交会源代码.doc
  13. 两台电脑用一根网线组建局域网
  14. 996M11鹅厂这些互联网行业“黑话”,你知多少?
  15. (详细)华为畅享6S DIG-AL00的usb调试模式在哪里打开的教程
  16. Python爬取网易云音乐热歌榜(爬虫)
  17. 大脑皮质网络中社区内和社区间同步与相关性的竞争|Competition between intra-community and inter-community synchronization...
  18. [JZOJ5542] 董先生的钦点
  19. 蚂蚁区块链第22课 蚂蚁区块链溯源服务功能从开通到实现
  20. Spring Boot+Vue项目打包部署

热门文章

  1. Matlab--m代码转C与C++代码)1(简单示例涉及到函数调用)
  2. 字符串匹配——BMH算法
  3. STM32 - 定时器基础应用说明 - 04 - N-pulse waveform generation using one-pulse mode - 用OPM模式产生N次脉冲
  4. 在Mac电脑上用VMware Fusion在移动硬盘上安装Windows7虚拟机
  5. c malloc 头文件_C/C++求职者必备 23 道面试题,一道试题一份信心!
  6. 苹果手机免密支付怎么取消_超市“扫码枪”有啥神奇功能?直接扫走你的资金,不用输入密码|移动支付|手机|免密...
  7. html5获取城市,HTML5 geolocation API获得用户当前城市名
  8. 产品经理必懂的技术那点事儿 pdf_产品经理10大基础技能(5):读透神经网络和机器学习...
  9. php按时间归档,PHP文章按日期(月日)SQL归档
  10. mysql管理数据 并上传至云端_怎样将MySQL数据库上传到服务器