来源:AI科技评论

本文约3200字,建议阅读6分钟

本文重点介绍一些神经网络中最有前途和最有影响力的方向。

在过去的几十年中,人工智能研究取得了巨大进展,但是它主要依赖于固定的数据集和固定的环境。

而持续学习是一个越来越相关的研究领域,它关心人工系统如何像生物系统那样从连续的相关数据流中持续地学习。

近日,DeepMind在Cell上发布了13页的《神经网络中持续学习》综述论文。

本文将持续学习与神经网络的学习动力学联系起来,强调了其必须大大提高数据效率的潜力。

本文进一步考虑近年来出现的许多受生物学启发的新方法,重点是利用正则化,模块性,记忆( memory)和元学习的方法,并重点介绍一些最有前途和最有影响力的方向。

1、世界不是一成不变的

人工智能成功的一个常见基准是模仿人类学习的能力。我们测量人类识别图像、玩游戏和驾驶汽车的能力,然后开发可以匹配或超过给定训练数据的机器学习模型。

然而这种范式将重点放在最终结果上,而不是学习过程上,并且忽略了人类学习的一个关键特征:对不断变化的任务和连续的经验具有鲁棒性。

人类可以以这种方式学习是不足为奇的,毕竟,时间是不可逆转的,世界不是一成不变的,因此人类的学习已进化到在动态学习环境中蓬勃发展。

这种鲁棒性与现代最强大的机器学习方法形成了鲜明的对比,后者仅在呈现经过精心shuffle,平衡和同质化的数据时才能表现良好。

这些模型不仅在有所变化的数据状况时表现不佳,而且在某些情况下会完全失效,或因早期学习的任务而导致性能急剧下降,这被称为灾难性遗忘。

通过开发像人类一样持续不断学习的神经网络模型,可以得到什么?

持续学习技术可以使模型获得专门的解决方案同时不丢掉以前的解决方案,从而有可能像人类一样终身学习。

实际上,持续学习通常被认为是人类水平的人工智能的必要属性之一。

从根本上讲,通过提高学习效率以及实现相关任务之间的知识迁移,持续学习方法甚至可以在固定环境下为深度神经网络提供巨大优势。

2、持续学习的基础、定义与要

基于生物系统的持续学习基础  

对自然界及其智能物种的研究经常与人工智能研究相交,包括持续学习。

生物学为在复杂环境中成功进行持续学习提供了存在证据,并暗示了设计方法的原则和成功方法的取舍。

有多种机制可以使生物系统适应不断变化的环境,而不会产生遗忘。

因此,本节通过类似于其生物学等效物的方式介绍四个连续学习范式,如下图所示:

图1 持续学习的范式

持续学习的定义

持续学习的问题通常由顺序训练协议和解决方案预期的功能来定义。与静态数据集或环境的通用机器学习设置相反,持续学习设置明确地专注于动态变化的环境,通常划分为需要顺序完成的一组任务。此设置可能在任务转换(平滑或离散),任务长度和重复以及任务类型(例如无监督、监督或强化学习)方面有所不同,甚至可能没有明确定义的任务。与课程学习比较,学习器无法控制任务的顺序。

持续学习解决方案通常希望满足许多需求,如下图所示并在方框1中定义。

图2 在持续学习环境中不同结果的图示

持续学习的要求 

  • 之前任务的最小访问。该模型没有为以前的经验提供无限存储,并且至关重要的是,它无法与以前看到的任务进行交互。

  • 模型容量和计算的最小增加。该方法必须是可伸缩的:它不能为每个后续任务添加新模型。

  • 减少灾难性的遗忘和干扰。对新任务的训练不应显着降低先前学习的任务的性能(图2 A,C)。

  • 快速适应和恢复。该模型应该能够快速适应新任务或领域转移,并且在呈现过去任务时能够快速恢复。

  • 保持可塑性。该模型应能够在观察到新任务时持续有效学习(图2 B)。

  • 最大化向前和向后传输。学习任务应该在学习效率和绩效方面都改善过去和将来的相关任务(图2 D,E)。

  • 与任务无关的学习。该方法不应依赖已知的任务标签或任务边界。

3、基于梯度的解决方案

图3 不同任务的梯度下降优化

基于梯度的持续学习方法可以理解为突触可塑性模型的远亲。

哺乳动物的大脑在突触级具有复杂的机制,可以防止新旧知识之间的干扰,甚至是事实和技能之间的冲突。虽然突触可塑性已经研究了数十年,但是许多核心功能仍然难以捉摸。

基于梯度的方法的一个弱点是它们依赖于要达到的目标的近似值,这意味着一旦模型出现了很多任务或序列中的任务更加多样化,它们就很可能失败。

4、模块化架构

模块化是人工系统用来实现持续学习的另一个范式。

从进化的角度来看,在日益复杂的环境中成功的生存与神经系统的强烈分化和专一性相关并非偶然。

实际上,生物大脑是模块化的,具有不同但相互作用的子系统(如用于记忆或运动控制)。就稀疏激活和分层组织而言,模块化的证据已从解剖学特征扩展到功能分离。

模块化神经网络体系结构是对持续学习中的干扰和灾难性遗忘问题的一种自然而有效的解决方案。

模块化也可以表现为层次结构。

理解模块化的另一种方法是从稀疏性的角度出发,它已从压缩和效率角度进行了广泛的探索,它也对强化学习和控制具有适用性。

从持续学习的角度来看,稀疏表示和渐变都会导致较少的干扰和遗忘,因为将有较少的任务敏感参数或较少的有效参数更改。稀疏性也可能导致模块的出现,而无需预定义的模块化体系结构,我们将其视为未来研究的重要途径。

模块化的范式,尤其是在与稀疏约束和层次抽象结合时,提供了一种实用而强大的方法来解决持续学习的问题。

展望未来,人类级人工智能将需要具备专业能力和技能组合能力,模块化的持续学习描述了通往两者的道路。

5、人工学习系统的记忆

大脑中的记忆系统对人类学习是至关重要的,并且是人工神经网络中基于记忆的持续学习的灵感来源。

尽管神经科学尚未完全描述突触可塑性、情景记忆和语义记忆之间的复杂相互作用,但很明显,记忆是保护人类学习和适应各种经历的长期生命的堡垒。

借鉴生物学的启发,本文考虑了一个更雄心勃勃的解决持续学习问题的方法:实现一个可以对知识或经验进行编码,存储和回忆的神经网络存储器。

人工存储器对于长期召回可能具有更大的可伸缩性,但是它带来了额外的挑战,即以一种跨任务的方式来设计或最好学习用于编码,查询和编写信息的框架。

用于持续学习的最简单的记忆实现通常称为回放或排练:其想法是维持观察的历史,然后从该缓冲区(以及当前的观察)中采样学习目标,从而通过连续排练来避免灾难性的遗忘以前看过的任务(图1 D)。

在这种类别下,还有情节记忆方法,它们不同于排练方法,因为它们不仅使用回放记忆进行训练,而且还用到了推理。

排练和情景记忆很简单,并且在减少遗忘方面非常有效,但它们的伸缩性不好。

无论面临什么挑战,记忆框架对于持续学习显然都是有价值的,而且最普遍的端到端模型有潜力在该领域开拓新的领域,但前提是我们必须克服训练此类系统的挑战。

6、元学习:发现用于持续学习的归纳偏差

用于持续学习的元学习是一种方法,该方法受大脑在有限的经验之后合成新颖解决方案的能力的激励。

通过应用机器学习来优化学习方法本身,因此用来学习“学习”本身,元学习希望实现与生物系统所展示的那种快速、通用的适应能力。

到目前为止讨论的所有解决方案都规定了手动设计的机制或体系结构,归纳偏差,以进行持续学习。

每个归纳偏见都在渴望之间产生了不同的权衡,例如,良好的知识保留与基于内存的方法中的正向转移。值得考虑的是,是否可以通过从数据中学习解决方案而不是依靠人类的独创性来设计解决方案,从而实现更好的折衷。

从历史上看,许多“元学习”或“从学习到学习”的方法都表明,可以通过自动学习归纳性偏见(例如体系结构,数据和学习参数)来改善解决方案,否则这些就需要手动进行。

7、结语和未来方向

人类具有快速学习和强大概括的非凡能力,正是这种能力可以使人类在科学,艺术和工业领域取得成就,但我们并不经常提及人类在一生的教育和经验中不断学习的能力。

本文不仅试图强调持续学习的重要性,而且试图揭露现代神经网络在这方面的局限性。

通过调查,本文确定了几种学习范式,这些范式在神经科学和生物学系统中都有很强的相似性。

基于梯度的方法直接修改了神经网络的优化,并且已经证明可以减少灾难性的遗忘。

模块化体系结构通过技能和知识的分层重组为灾难性遗忘提供了务实的解决方案。

端到端记忆模型可能是用于长时间学习的可扩展解决方案,而元学习方法可能会完全超过手工设计的算法和体系结构。 

最后,持续学习解决方案可以通过提高学习算法的长期可靠性以及开发确保从边界的体系结构来减轻风险。

编辑:于腾凯

校对:汪雨晴

DeepMind发布最新《神经网络中持续学习》综述论文!相关推荐

  1. DeepMind发布《神经网络中持续学习》Cell综述论文

    点上方计算机视觉联盟获取更多干货 仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:专知 AI博士笔记系列推荐 周志华<机器学习>手推笔记正式开源!可打印版本附pdf下载链接 现代机 ...

  2. 脑启发重放,利用人工神经网络进行持续学习

    Task IL中,一个agent必须增量学习执行多个不同的任务. 在 MNIST数据集上,强调了回放的惊人效率和鲁棒性:仅回放少量或低质量的样本就足够了. 然而,我们发现将GR扩展到更复杂的问题并不简 ...

  3. 深度学习如何又好又快? Google发布最新《高效深度学习: 更小、更快、更好》综述...

    深度学习模型在实际生产系统中面临一系列问题,比如模型大小.训练时间等,本文这对深度学习的效率问题做了全面的综述,值得关注! 深度学习已经在计算机视觉.自然语言理解.语音识别.信息检索等领域掀起了一场革 ...

  4. 北大发布最新《图神经网络推荐系统》2020综述论文,27页pdf

    来源:专知 随着网络信息的爆炸式增长,推荐系统在缓解信息过载方面发挥了重要作用.由于推荐系统具有重要的应用价值,这一领域的研究一直在不断涌现.近年来,图神经网络(GNN)技术得到了广泛的关注,它能将节 ...

  5. 【持续学习】清华最新持续学习综述

    为了应对现实世界的动态变化,智能体需要在其生命周期中增量地获取.更新.积累和利用知识.这种能力被称为持续学习,为人工智能系统自适应发展提供了基础. 本文来自于https://arxiv.org/abs ...

  6. 医学图像配准中的深度学习综述论文解读

    点击上方"小白学视觉",选择加"星标"或"置顶" 重磅干货,第一时间送达 来源:https://zhuanlan.zhihu.com/p/9 ...

  7. 复旦大学邱锡鹏教授发布《神经网络与深度学习》教材,配备代码和章节练习...

    雷锋网(公众号:雷锋网) AI 科技评论按,近日,复旦大学计算机科学学院副教授邱锡鹏发布了一本<神经网络与深度学习>教材,这份学习资源一经发布就广受好评.目前,该资源在 github 上已 ...

  8. 从起源到具体算法,这篇深度学习综述论文送给你

    来源:机器之心 本文共4602字,建议阅读8分钟. 本文为大家从最基础的角度来为大家解读什么是深度学习,以及深度学习的一些前沿发展. 自 2012 年多伦多大学 Alex Krizhevsky 等人提 ...

  9. 干货丨从起源到具体算法,这是一份适合所有人读的深度学习综述论文

    文章来源:机器之心 近年来,深度学习作为机器学习的新分支,其应用在多个领域取得巨大成功,并一直在快速发展,不断开创新的应用模式,创造新机会.深度学习方法根据训练数据是否拥有标记信息被划分为监督学习.半 ...

最新文章

  1. 银行启动开放战略,能否赢回金融科技下半场?
  2. python在匿名函数作和_跟光磊学Python开发-匿名函数函数和高阶函数
  3. 【算法设计与分析】流水作业调度问题 动态规划算法与代码实现 超详细
  4. Linux Boot,Kernel 和 Service 介绍
  5. puppet enc mysql_精通Puppet配置管理工具
  6. Android远程调试的探索与实现
  7. php jsonerrorsyntax,php – json_decode返回JSON_ERROR_SYNTAX,但在线格式化程序表示JSON可以...
  8. 【python】人机大战
  9. 比特币矿业公司 Marathon 一季度产出 196 枚 BTC,共持有超 5100 枚 BTC
  10. Android系统进程间通信(IPC)机制Binder中的Client获得Server远程接口过程源代码分析(3)...
  11. mos管的rc吸收电路计算_RC吸收电路参数计算
  12. P3900 [湖南集训]图样图森破
  13. 3D视觉从入门到精通知识星球
  14. 敏捷实践之回顾会议Retro
  15. scanf函数和回车、空格 及其返回值
  16. 机器学习——贝叶斯算法(一)
  17. ruby实现按键精灵的功能
  18. [生存志] 第73节 勾践隐忍灭吴
  19. BI和大数据的区别在哪里?
  20. python代码turtle是什么意思_python中turtle库中的Turtle()是什么,有什么用?

热门文章

  1. html语言分行,Markdown内嵌Html语言
  2. Dart In Action -Dart快速入门(二)
  3. 你以为border-radius只是圆角吗?【各种角度】
  4. 数据架构简史:转换中的范式
  5. pl/sql连接数据库
  6. IronRuby - 如何在VS2010下调试IronRuby代码
  7. Cisco路由器的安全配置简易方案
  8. 博客摘录:网络管理员的两天
  9. 今天你(L)China了吗?
  10. matplotlib输出图形到网页_【Python】No.2 Numpy和Matplotlib初体验