2019-12-26 06:17:03

作者 | AI科技评论

编辑 | 刘萍

近日2019年 ACM Fellows 增选结果出炉之后,备受人们关注,其中除谢源、周礼栋、陈熙霖等业界和学术界著名学者外,目前在悉尼大学任教、且担任优必选科技人工智能首席科学家的陶大程教授也是人们瞩目的焦点。

陶大程于2002年毕业于中国科学技术大学,2004年获得香港中文大学硕士学位,2007年获得英国伦敦大学博士学位。

如今年仅40岁左右,陶大程已然成为ACM Fellow(2019)、IEEE Fellow(2014)、IAPR Fellow(2012)等,且2016年当选欧洲科学院外籍院士,诸多荣誉加身,可谓是青年学者中的翘楚。

这些荣誉是和他巨量的、且重要的研究成果分不开的。截止2019年12月,Google Scholar显示他的引用已经达到45000+,h-index为110。

最近(12月8日-14日)在加拿大温哥华举办的NeurIPS 2019中,陶大程教授(带领下的优必选悉尼大学AI中心)共有 8 篇论文入选,也成为本届会议入选论文数量最多的华人学者。

这些论文也代表了陶大程教授近期的研究主题和进展,近日陶大程团队人员将这些论文整理并做详细解读,分享给读者如下:

编者注:如对论文内容感兴趣,可关注 微信公众号「AI 科技评论」,回复「陶大程@NeurIPS2019」,打包下载全部 8 篇论文。

论文一

学习、想象与创造:从先验知识生成文本到图像(Learn, Imagine and Create: Text-to-Image Generation from Prior Knowledge)

文本到图像的生成,即在给定文本描述的情况下生成图像,是一项非常具有挑战性的任务,原因是文本和图像之间存在着巨大的语义鸿沟。但是,人类可以聪明地解决这个问题。

我们从各种对象中学习,对语义、纹理、颜色、形状和布局形成可靠的先验认识。给定文本描述后,我们会立即利用这种先验想象整体视觉效果,并在此基础上,通过逐渐添加越来越多的细节来绘制图片。

受此过程的启发,我们在本文中提出了一种名为 LeicaGAN 的新的文本到图像的方法。该方法可以将上述三个阶段合并到一个统一的框架中。

首先,我们将多个先验学习阶段定义为一个文本-视觉共嵌入(TVE)阶段,其中包括用于学习语义、纹理和颜色先验的文本图像编码器以及用于学习形状和布局先验的文本掩码编码器。

然后,我们将这些互补的先验相结合,并加入噪声以实现多样性,将想象阶段表述为多重先验聚合(MPA)。

最后,我们用一个级联精细生成器(CAG)来描述创造阶段,逐步从粗糙到精细地绘制图片。

我们利用对抗性学习,让 LeicaGAN 增强语义一致性和视觉逼真度。在两个公开基准数据集上进行的全面实验证明了 LeicaGAN 优于基线法。

论文地址:https://papers.nips.cc/paper/8375-learn-imagine-and-create-text-to-image-generation-from-prior-knowledge.pdf

论文二

类别锚引导的无监督域自适应语义分割(Category Anchor-Guided Unsupervised Domain Adaptation for Semantic Segmentation)

无监督域自适应(UDA)旨在增强特定模型从源域到目标域的泛化能力。UDA 具有特别的意义,因为无需对目标域样本进行额外的注释。但是,两个域中的不同数据分布或\ emph {域移位/差异}会不可避免地会影响 UDA 的性能。尽管在匹配两个域之间的边缘分布方面已经取得一些进展,但是由于与类别无关的特征对齐,分类器倾向于源域特征,并对目标域做出错误的预测。

在本文中,我们提出了一种新的类别锚导向(CAG)语义分割 UDA 模型,该模型显式实施类别感知特征对齐,以同时学习共享的鉴别功能和分类器。

首先,使用源域特征的分类中心作为引导锚来识别目标域中的活动特征,并为其分配伪标签。

然后,我们利用基于锚点的像素级距离损失和鉴别损失来分别驱动类别内特征和类别间特征的进一步分离。

最后,我们设计了一种分阶段的训练机制,以减少误差累积,并逐步适应所提出的模型。

在 GTA5Cityscapes 和 SYNTHIACityscapes 场景的实验都证明了我们的CAG-UDA 模型优于最先进的方法。

论文链接:https://papers.nips.cc/paper/8335-category-anchor-guided-unsupervised-domain-adaptation-for-semantic-segmentation.pdf

论文三

控制批次大小和学习率以实现良好的泛化:理论和经验证据(Control Batch Size and Learning Rate to Generalize Well: Theoretical and Empirical Evidence)

基于随机梯度下降(SGD)的优化方法,深度神经网络已获得巨大的成功。但是,如何调整超参数(尤其是批次大小和学习率)以确保良好的泛化我们还不清楚。

本文描述了一种训练策略的理论和经验证据,即我们应该控制批次与学习率不要太大,以获得良好的泛化能力。

具体来说,我们证明了由 SGD 训练的神经网络的 PAC-Bayes 泛化约束,它与批次大小与学习率之比呈正相关。这种相关性为训练策略的制定奠定了理论基础。

此外,我们进行了一项旨在验证相关性和训练策略的大规模实验。我们在严格控制不相关变量的同时,使用数据集 CIFAR-10 和 CIFAR-100 对基于架构 ResNet-110 和 VGG-19 的 1600 个模型进行了训练。我们采集了测试集的准确性以进行评估。我们采集的 164 组数据中,Spearman 的排名相关系数和对应的 p 值表明,相关性具有显著的统计学意义,完全支持训练策略。

论文地址:https://openreview.net/pdf?id=BJfTE4BxUB

论文四

云端未标记正压缩(Positive-Unlabeled Compression on the Cloud)

为了将卷积神经网络(CNNs)在高端 GPU 服务器上取得的巨大成功扩展到智能手机等便携设备上,人们做了很多尝试。因此,在云端提供深度学习模型的压缩和加速服务具有重要意义,对最终用户很有吸引力。但是,现有的网络压缩和加速方法通常会通过请求完整的原始训练数据(例如 ImageNet)来微调 svelte 模型,这可能比网络本身更为繁琐,而且无法轻松上传到云端。

在本文中,我们提出了一种新的未标记正(PU)设置来解决这个问题。实际上,只需将原始训练集的一小部分作为正面示例,通过具有基于注意力的多尺度特征提取器的 PU 分类器,就可以从云端未标记的海量数据中获得更多有用的训练实例。

我们进一步介绍了一个稳健的知识提炼(RKD)方案来处理这些新增加的训练实例的类别不平衡问题。

通过对基准模型和数据集进行的实验,我们验证了该方法的优越性。我们只能使用 ImageNet 中均匀选择数据的 8% 来获得性能与基准 ResNet-34 相当的高效模型。

论文地址:https://papers.nips.cc/paper/8525-positive-unlabeled-compression-on-the-cloud.pdf

论文五

LIIR:多智能体强化学习中的学习个体内在奖励(LIIR: Learning Individual Intrinsic Reward in Multi-Agent Reinforcement Learning)

协同分散式多智能体强化学习(MARL)面临的一个重大挑战是,在只获得团队奖励时,如何使每个智能体都产生多样化的行为。在先前的研究中,在奖励塑造或设计可区别对待智能体的集中批评机制方面已付出了很多努力。

在本文中,我们建议合并两个方向,并向每个智能体学习内在的奖励功能,该功能在每个时间步都对智能体产生不同的刺激。

具体来说,特定智能体的内在报酬将涉及为其计算一个不同的智能体批评机制,以指导其个别策略的更新。同时,将对参数化的内在奖励功能进行更新,使其最大程度地满足环境对团队累积奖励的期望,从而使目标与原 MARL 问题保持一致。

该方法称为 MARL 中的学习个体内在奖励(LIIR)。我们将 LIIR 与《星际争霸 2》中的战斗游戏中许多最先进的 MARL 方法进行了比较。结果证明了 LIIR 的有效性,我们还证明,LIIR 可以在每个时间步为每个智能体分配一个有洞察力的内在奖励。

论文地址:https://papers.nips.cc/paper/8691-liir-learning-individual-intrinsic-reward-in-multi-agent-reinforcement-learning.pdf

论文六

通过生成从不良数据中学习(Learning from Bad Data via Generation)

不良的训练数据将通过理解底层的数据生成方案来挑战学习模型,从而增加了在不可见的测试数据上获得满意性能的难度。

我们假设实际数据分布是由不良数据的经验分布支持的分布集。在此分布集上可得出最坏情况的公式,然后将其解释为一种对抗性的生成任务。

我们还对 GANs 与我们框架之间的联系和差异进行了深入的讨论。我们进一步从理论上说明了这一生成任务对从不良数据中学习的影响,并揭示了其与数据相关正则化的联系。给定不同的距离度量(例如 Wasserstein 距离或 JS 散度),我们可以得出该问题的不同目标函数。

我们对不同类型的不良训练数据的实验结果表明了该方法的必要性和有效性。

论文地址:https://papers.nips.cc/paper/8837-learning-from-bad-data-via-generation.pdf

论文七

无可能性过完备独立成分分析(ICA)及其在因果发现中的应用(Likelihood-Free Overcomplete ICA and Applications In Causal Discovery)

因果关系发现在过去几十年中取得了重大进展。特别是,许多最近的因果发现方法都利用独立的非高斯噪声来实现因果模型的可识别性。隐藏的直接常见原因或混杂因素的存在通常使因果发现更加困难;当这些原因或因素存在时,相应的因果发现算法都可以看作是对过完备独立成分分析(OICA)的扩展。

但是,现有的 OICA 算法往往会对独立成分的分布做出严格的参数假设,而实际数据可能会违反这些假设,从而导致次优甚至错误的解决方案。此外,现有的 OICA 算法依赖于期望最大化(EM)程序,该程序要求对独立成分的后验分布进行计算代价高昂的推断。

为了解决这些问题,我们提出了一种无可能性过完备独立成分分析算法(LFOICA),该算法通过反向传播直接估计混合矩阵,而无需对独立成分的密度函数做出任何明确的假设。该方法具有较高的计算效率,使得许多因果发现过程在实际应用中更加可行。为了加以说明,我们在两个因果发现任务中证明了我们方法的计算效率和有效性。

论文地址:https://papers.nips.cc/paper/8912-likelihood-free-overcomplete-ica-and-applications-in-causal-discovery.pdf

论文八

对抗性学习的理论分析:一种极小极大法(Theoretical Analysis of Adversarial Learning: A Minimax Approach)

在本文中,我们提出了一个分析对手存在时的风险边界的一般理论方法。具体地,我们尝试将对抗性学习问题纳入极小极大框架中。

我们首先表明,通过引入分布之间的传输图,可以将原来的对抗性学习问题转化为极小极大统计学习问题。

然后,我们证明了在利普希茨连续条件较弱时,关于覆盖数的极小极大问题的新风险界限。

我们的方法可以应用于多类分类和常用损失函数,包括铰链损失和斜坡损失。作为一些说明性示例,我们推导了 SVM 和深度神经网络的对抗风险界限,我们的界限具有两个与数据相关的项,可对其进行优化以实现对抗的稳健性。

论文地址:https://papers.nips.cc/paper/9394-theoretical-analysis-of-adversarial-learning-a-minimax-approach.pdf

新晋 ACM Fellow 陶大程,8 篇 NeurIPS 论文详解相关推荐

  1. 谁是谢源?广西理科探花、清华电子系学霸、阿里AI芯片带头大哥、新晋ACM Fellow...

    乾明 鱼羊 发自 凹非寺 量子位 报道 | 公众号 QbitAI 谢源又出现了. 今天(12月12日),ACM新一批Fellow入选者公布,有7位华人面孔: 中科院计算所副所长陈熙霖.中科大计算机学院 ...

  2. 从4篇最新论文详解NLP新范式——Continuous Prompt

    ©PaperWeekly 原创 · 作者 | 张一帆 学校 | 中科院自动化所博士生 研究方向 | 计算机视觉 近几年,NLP 技术发展迅猛,特别是 BERT 的出现,开启了 NLP 领域新一轮的发展 ...

  3. 2019 年 ACM Fellow出炉,陈熙霖、陶大程、周礼栋、谢源、李向阳等7位华人学者入选

    纽约时间12月11日,美国计算机学会(ACM)宣布了 2019 年新当选 ACM Fellow 名单,共有 58 位科学家当选,其中包括 7 位华人. 作为世界上最大的计算机领域专业性学术组织,ACM ...

  4. 「AI大牛」陶大程出任京东探索研究院院长!曾连续6年入选全球高被引科学家...

    最新消息,京东集团重磅宣布!人工智能领域的知名学者--陶大程将出任京东探索研究院院长. 资料显示,陶大程是人工智能和信息科学领域国际知名学者,主攻机器学习.深度学习.计算机视觉.数据科学.图像处理等. ...

  5. 悉尼大学教授陶大程加入京东,出任京东探索研究院院长

    来源丨机器之心 编辑丨蛋酱 3 月 9 日消息,人工智能和信息科学领域国际知名学者.悉尼大学教授.澳大利亚科学院院士陶大程已正式出任京东探索研究院 (JD Explore) 院长. 陶大程 2002 ...

  6. 全球顶尖人工智能专家陶大程加入京东,出任京东探索研究院院长

    点击 机器学习算法与Python学习 ,选择加星标 精彩内容不迷路 机器之心报道 陶大程 2002 年于中国科学技术大学取得学士学位,后于香港中文大学取得硕士学位,英国伦敦大学取得博士学位.毕业后,先 ...

  7. 陶大程院士:深度学习“泛化”理论的回顾与前沿

    2020-07-11 22:50:40 作者 | 蒋宝尚 编辑 | 丛 末 2020年7月9日,在世界人工智能大会上,陶大程教授(澳大利亚科学院院士)在科学前沿全体会议上和观众连线,并做了<预见 ...

  8. 悉尼大学陶大程:遗传对抗生成网络有效解决GAN两大痛点

    来源:新智元 本文共7372字,建议阅读10分钟. 本文为你整理了9月20日的AI WORLD 2018 世界人工智能峰会上陶大程教授的演讲内容. [ 导读 ]悉尼大学教授.澳大利亚科学院院士.优必选 ...

  9. 陶大程:判断人工智能是否可信的“四把尺子”

    作者 | 维克多 编辑 | 青暮 在2021年世界人工智能大会的可信AI论坛上,陶大程进行了主题为<可信人工智能的前世今生>的报告.他在报告中表示,在人工智能的技术落地浪潮中,AI的可信度 ...

最新文章

  1. java 隐藏参数,如何在没有JVM参数的情况下隐藏java 9中的“...
  2. PHP 字符处理 加密解密 函数收集
  3. glance系列一:glance基础
  4. 调用预训练好的XLnet词向量
  5. 手机控件查看工具uiautomatorviewer
  6. git安装 perl ubuntu_ubuntu下安装git
  7. 2010年通信展的总结
  8. NumberFormat 的使用
  9. 东线报接口 全网一手线报全网(京东,淘宝,天猫)最全优惠信息
  10. 使用c++实现一个FTP客户端(一)
  11. 计算机科学与技术工程师职称考试试题,2018年下半年网络工程师考试下午试题及答案...
  12. YTU OJ 1329: 手机尾号评分
  13. 每日新闻:6G概念研究今年启动;德国SAP斥80亿美元收购美国Qualtrics;华为发布人工智能平台;微软收购两家游戏工作室...
  14. js 数组按奇偶拆分_js数组拆分问题
  15. 从零开始学数据分析之——《笨办法学Python》(习题0-10)
  16. 【Ubuntu系列】Ubuntu20.04系统下3060显卡驱动安装记录
  17. 【软考总结】不负韶光--I eat konwledge like air.
  18. overflow:hidden属性
  19. 国标GB/T28181EasyGBS对接大华硬盘录像机NVR查询录像失败解决方案
  20. JAVA使用Springboot+MP+VUE+Swagger前后端分离进行微信支付

热门文章

  1. 键盘历史记录实用程序已停止工作 解决办法
  2. pandas.DataFrame删除/选取含有特定数值的行或列实例
  3. @ResponseBody注解作用
  4. tf.keras.layers.Flatten该网络中的第一层tf.keras.layers.Flatten将图像的格式从2d阵列(28乘28像素)转换为28 * 28 = 784像素的1d阵列。可以
  5. sql server的BCP导入导出(转)
  6. SetAutoResizeMode
  7. 引子 我想大家应该都很熟悉DNS了,这回在DNS前面加了一个D又变成了什么呢?这个D就是Dynamic(动态),也就是说,按照传统,一个域名所对应的IP地址应该是定死的,而使用了DDNS后,域名所对应
  8. Transferring GANs: generating images from limited data 论文学习
  9. Scala堆的方式进行Spark topK词频查询(根据value进行TreeMap排序)
  10. 协作的力量——2021-2022年度《大数据系统基础》成果展示