点上方蓝字计算机视觉联盟获取更多干货

在右上方 ··· 设为星标 ★,与你不见不散

编辑:Sophia
计算机视觉联盟  报道  | 公众号 CVLianMeng

转载于 :AAAA

AI博士笔记系列推荐:

博士笔记 | 周志华《机器学习》手推笔记“神经网络”

Yoshua Bengio 等人发表研究,基于学习器适应新分布的速度提出一种元学习因果结构。

Yoshua Bengio 等人基于学习器适应新分布的速度提出一种元学习因果结构,这些新分布由干预、智能体动作以及其它非稳态(non-stationarity)导致的稀疏分布变化引起。这项研究证明,在此假设下,正确的因果结构选择会使学习器更快地适应修改后的分布,因为在所学知识经过适当模块化后,分布变化将集中在一或多个机制中。这导致稀疏的预期梯度,以及在适应此类变化时需要重新学习的有效自由度的数量较少。因而,该研究将适应修改后分布的速度作为元学习的目标,表明这可用于决定两个观测变量之间的因果关系。

分布变化无需对应标准干预,学习器不具备关于干预的直接知识。该研究证明,因果结构可通过连续变量进行参数化,并以端到端的形式学得。研究者还探索了如何将这些想法用于学习编码器来映射低级观测变量与导致更快速分布外适应的未观测因果变量,进而学得一个表示空间,使之满足独立机制以及动作和非稳态导致的机制内微小稀疏变化的假设。

论文链接:https://arxiv.org/pdf/1901.10912.pdf

机器学习方法的泛化难题

目前的机器学习方法在训练分布以外的数据上泛化效果较弱,而泛化在实践中又是必然的。因此在与训练数据来自同一分布的测试集上取得优秀的泛化效果还不够,我们还希望在一个数据集上学得的内容可以在其它相关分布上实现很好的泛化。这些分布可能包含学习器见过的概念,而变化通常源于智能体的动作。一般而言,我们希望先前学得的知识能够形成坚实的基础,使学习器很快地适应新型相关分布,即获得优异的迁移结果。学习器可能仍需学习一些新概念,但是由于大部分其它相关概念(及其构成)已经被学习器捕捉,因此在迁移分布上的学习将非常迅速。

在缺乏假设的情况下,在无关的分布上实现成功的迁移是不可能的。这项研究假设在以适当的模块化方式表示知识时,分布变化是稀疏的,只有一个或少量模块发生变化。当分布变化由一或多个智能体的动作引起(如因果关系文献中探讨的干预)时尤其如此,即因果变量被限定为某个特定值。通常,智能体很难同时影响多个底层因果变量,尽管该研究并未过多涉及智能体学习,但它利用了智能体学习环境来帮助发现这些变量及其彼此之间的因果关系。

要想激发对因果结构推断的需求,你需要考虑真正实施或在想象中实施干预。若要以考虑干预的方式进行适当规划,那么你需要想象干预导致的变量联合分布的变化,即使之前从未见过这种变化。这超出了良好迁移学习的范畴,需要因果学习和因果推理。因此,仅学习观测变量的联合分布还不够。你还应当充分学习底层高级变量及其与恰当推断干预效果的因果关系。例如,A=Raining causes B=Open Umbrella(反之则不然)。改变 Raining 的边缘概率(如由于天气发生变化)不会改变 A 和 B 之间的关联机制(P(B|A)),但这会对 P(B) 产生影响。反过来,智能体对 B (Open umbrella) 的干预不会影响到 A (Raining)。这种不对称仅从 (A, B) 训练对中通常是无法看到的,除非分布发生变化,比如干预引起的分布变化。

这是该研究的动机,即学习器基于未必已知的干预带来的一组分布进行学习,不仅能够捕捉联合分布,还能发现一些底层因果结构。

Yoshua Bengio 等人的新思路

机器学习方法通常利用某种形式的数据分布假设(没有免费午餐定理告诉我们不要对泛化抱有信心)。该研究不仅考虑数据分布假设,还考虑分布的变化(如由于智能体的某些动作,训练分布转变为迁移分布)。该研究依赖这一假设:当关于分布的知识得到恰当表示时,分布的变化较小。这得益于底层假设(不过该假设很难直接验证):由于干预的某种泛化形式导致分布变化,因此仅有一个或少量真值机制发生改变。

如何才能利用这一假设呢?该研究进行了理论和实验验证,发现如果拥有正确的知识表示,则在训练分布上经过良好训练的模型能够快速适应迁移分布。这得益于该研究的假设:真值数据生成过程是独立机制的组成部分,当训练分布变成迁移分布时,仅有少量真值机制和参数需要改变。因此,捕获对应知识分解的模型仅需要少量更新和示例即可适应迁移分布。下文将展示,在未经更改的参数上预期梯度接近于 0(前提是模型在训练分布上得到很好的训练),因此在适应迁移分布的过程中有效搜索空间将大大缩小,从而实现快速适应。

因此,基于「正确的知识表示空间带来微小的分布变化」这一假设,研究者定义了度量适应速度的元学习目标,从而优化知识的表示、分解和结构化方式。这是该研究的核心想法。注意,在存在更多非稳态(即分布出现很多变化)时获得的信号也会更强,就像元学习中更多的元示例会带来更好的结果一样。

通过这种方式,研究者将机器学习领域通常认为的麻烦事(非稳态、不受控制的干预等导致的分布变化)转换成训练信号,从而找到一种恰当的方式将知识分解为匹配微小变化这一假设的组件和机制。因此,研究者最终以端到端的方式对在分布变化上的快速迁移及其稳健性进行优化。如果数据真的基于独立因果机制的组成部分生成,则存在模拟该结构的知识分解。如果在每个时间步中,现实世界智能体只能改变一个或少量高级变量(或生成这些高级变量的相关机制),则该研究关于(正确知识表示的)微小变化的假设得到验证。此外,除了实现快速迁移以外,该研究或许还能将对真实因果分解的近似恢复为独立机制(达到观测和干预能够揭示这些机制的程度)。

何为因?何为果?

学习具备两个离散变量的因果图

假设 A 和 B 是可以取 N 个可能值的离散变量,则考虑使用以下公式(A → B 模型和 B → A 模型)来估计其联合分布:

关于适应迁移分布的实验

研究者进行了多次实验,来对比正确的因果模型和不正确模型在迁移分布上的学习曲线。在来自不同但具备相关性的迁移分布的数据上仅执行少量梯度步的适应对于获得元学习算法可用的信号至关重要。为了展示适应的效果,促进对来自迁移分布的少量数据的利用,研究者在离散随机变量上对模型进行试验,变量可取 N = 10 个可能值。

END

声明:本文来源于网络

如有侵权,联系删除

联盟学术交流群

扫码添加联盟小编,可与相关学者研究人员共同交流学习:目前开设有人工智能、机器学习、计算机视觉、自动驾驶(含SLAM)、Python、求职面经、综合交流群扫描添加CV联盟微信拉你进群,备注:CV联盟  

最新热文荐读

GitHub | 计算机视觉最全资料集锦

Github | 标星1W+清华大学计算机系课程攻略!

Github | 吴恩达新书《Machine Learning Yearning》

收藏 | 2020年AI、CV、NLP顶会最全时间表!

收藏 | 博士大佬总结的Pycharm 常用快捷键思维导图!

收藏 | 深度学习专项课程精炼图笔记!

笔记 | 手把手教你使用PyTorch从零实现YOLOv3

笔记 | 如何深入理解计算机视觉?(附思维导图)

笔记 | 深度学习综述思维导图(可下载)

笔记 | 深度神经网络综述思维导图(可下载)

总结 | 2019年人工智能+深度学习笔记思维导图汇总

点个在看支持一下吧

ICLR 2020 | Bengio 一作论文:因果机制、元学习与模型泛化如何产生关联?相关推荐

  1. 图灵奖得主Bengio又出新论文:用强化学习提升模型泛化性!网友崩溃:idea撞车了......

    点击上方"AI遇见机器学习",选择"星标"公众号 重磅干货,第一时间送达  转载自:新智元   来源:reddit  |  编辑:LRS [导读]Bengio又 ...

  2. 【论文】ICLR 2020 九篇满分论文!!!

    点击上方,选择星标或置顶,每天给你送干货! 阅读大概需要11分钟 跟随小博主,每天进步一丢丢 来自:深度学习技术前沿 从反传的自动微分机制,到不平行语料的翻译模型,ICLR 2020 这 9 篇满分论 ...

  3. ICLR 2020 九篇满分论文!!!

    关注上方"深度学习技术前沿",选择"星标公众号", 资源干货,第一时间送达! 从反传的自动微分机制,到不平行语料的翻译模型,ICLR 2020 这 9 篇满分论 ...

  4. NeurIPS 2020 | 微软亚洲研究院论文摘录之强化学习GAN篇

    编者按:12月6日至12日,国际人工智能顶级会议 NeurIPS 2020 在线上举办.相比前几年,NeurIPS2020 无论是论文的投稿数量还是接收率都创下了记录:论文投稿数量创历史最高记录,相比 ...

  5. ICLR 2020 | ReClor: 一个需要逻辑推理的阅读理解数据集

    2020-05-12 20:22:59 语言预训练模型在现有流行的阅读理解数据集上取得了惊人的效果,因此,现在是时候引入更复杂的数据集来推动该领域朝着更复杂推理的方向发展了. 新加坡国立大学冯佳时团队 ...

  6. ICLR 2020| 最新NAS benchmark:0.1秒完成NAS算法搜索

    2020-01-19 16:37 专题:ICLR 2019 导语:ICLR论文解读~ 雷锋网AI科技评论按:本文对悉尼科技大学博士生董宣毅发表于 ICLR 2020 的录用Spotlight论文< ...

  7. 繁凡的对抗攻击论文精读(二)CVPR 2021 元学习训练模拟器进行超高效黑盒攻击(清华)

    点我轻松弄懂深度学习所有基础和各大主流研究方向入门综述! <繁凡的深度学习笔记>,包含深度学习基础和 TensorFlow2.0,PyTorch 详解,以及 CNN,RNN,GNN,AE, ...

  8. 元学习之《On First-Order Meta-Learning Algorithms》论文详细解读

    元学习系列文章 optimization based meta-learning <Model-Agnostic Meta-Learning for Fast Adaptation of Dee ...

  9. NeurIPS提前看 | 四篇论文,一窥元学习的最新研究进展

    2019 年,NeurIPS 接受与元学习相关的研究论文约有 20 余篇.元学习(Meta-Learning)是近几年的研究热点,其目的是基于少量无标签数据实现快速有效的学习.本文对本次接收的元学习论 ...

最新文章

  1. 如何利用神经网络结合遗传算法进行非线性函数极值寻优(2)
  2. PTA L1_002 打印沙漏(C语言)
  3. 【转】同步与异步复位以及相关的亚稳态状况与设计可靠性
  4. 如果我是一线技术主管……
  5. java win7 jdk_WIN7下配置JDK并运行JAVA的过程
  6. jboss junit_使用junit-drools进行JBoss Drools单元测试
  7. Matlab中的函数句柄@
  8. Spring自定义属性编辑器及原理解释.md
  9. javascript基础(对象继承与引用)
  10. 机器人机构学基础(朱大昌)第二章部分习题答案
  11. Axure RP 8管理团队项目中遇到的问题
  12. 计算机算法设计与分析 第4版 (王晓东) 重点题
  13. 如何优雅的对网页截取长图
  14. Redis底层数据结构-SDS
  15. 第十届网络文化节活动和流程
  16. 40个重要的HTML5面试题及答案
  17. Oracle 中总计和小计使用的函数
  18. BeautifulSoup介绍
  19. 安装php详细步骤,PHP开发:安装PHP详细步骤
  20. php实现教学卡片,如何实现卡片翻阅效果

热门文章

  1. python的read函数调用报错_从零开始学Python(七):文件存储I/O流和异常捕捉
  2. mysql数据传输完整性_Mysql——数据库完整性
  3. python copy函数用法_python shutil模块函数copyfile和copy的区别
  4. 计算机硬盘的扇区大小,硬盘扇区编辑功能概述 - DiskGenius
  5. java web 定制化界面_实现javaWeb网页自定义出错界面
  6. opencv物品定位_如何使用OpenCV实现基于标记的定位
  7. python做的大型游戏_Python实现数据量较大的生命游戏
  8. php伪静态是什么,php路由设置伪静态
  9. Rhino学习教程——1.5
  10. 微信小程序开发教程(六)配置——app.json、page.json详解