下面的文章转自(已获作者允许):
2020机器学习前沿技术----LifeLong learning - stephon的文章 - 知乎
文章介绍了关于机器学习比较前沿的一项技术,也就是LifeLong Learning。这篇文章也对LifeLong Learning与Multi-task Learning以及Transfer Learning进行了对比,所以我将其进行了转载,其中对其排版进行了一定修改。

文章目录

  • 1. 为什么需要研究Lifelong learning?
  • 2. 有哪些别称?
  • 3. 有哪些处理方法及研究成果
    • a) EWC: Elastic Weight Consolidation
    • b) Multi-task learning with some modify
    • c) Model Expansion(but parameter efficiency)
  • 4. Multi-task learning, Transfer Learning , LifeLong learning之间的区别
  • 5. 如何评价Life-long Learning的好坏
  • 6. 这个领域还有哪些前沿的研究方向

1. 为什么需要研究Lifelong learning?

细数机器学习处理的问题,概括得讲,可以分为如下几大类:

  • 计算机视觉(CV): object classification, object detection, object segmentation, style transfer, denoising, image generation, image caption
  • 语音(Speech) : speech recogniton, speech synthesis
  • 自然语言处理(NLP): Machine translation, text classfication, emotional recogniton
  • 推荐系统: Recommendation, CRT

目前针对各个大类的不同子类问题, 都会去设计不同的网络结构,设计不同的loss, 采用不同的数据集去处理。 这使得机器学习“偏科严重”,比如前几年很火的AlphaGo, 虽然他是一个“围棋天才”,但是一旦让他去下象棋, 他就歇菜了。换句话说, 目前的人工智能,只能处理给定的任务,换一个任务就无能为力了,这距离我们所想达到的通用智能实在相差甚远。

反观人脑,在人不断成长的过程中,他可以学习各种各样的技能。不仅会下棋,还会踢球,还会辩论等等,而人的大脑只有一个(相当于自始至终只有一个网络)。 虽然随着时间的流逝,以前学习的东西会渐渐淡忘,但这丝毫不影响人脑在不断学习,胜任一个又一个任务中所表现出来的强大。

因此,我们是否可以只用一个网络结构(注意,这里的网络结构并非是固定的。也许随着任务的需要,得自行扩展网络),在不同的任务上分别训练,使得该网络能够胜任所有的任务呢。 这就是Life-long learning 所要研究的课题。

2. 有哪些别称?

  • Continuous Learning

  • Never ending Learning

  • Incremental Learning

3. 有哪些处理方法及研究成果

Knowledge Retention(but Not Intransigence) and Knowledge Transfer 知识保留(但不妥协)及知识迁移。 这意味着以前学到的知识,需要能够促进下一个任务Task B的学习; 学完Task B之后,要不仅可以很好得处理Task B, 同时在Task A 上不能有明显的下降, 最好Task A的性能,也能够有所提升或者是保持。

一个遗忘的例子:
How to solve Catastrophic Forgetting Little forgetting是允许的。

一些理论成果:

a) EWC: Elastic Weight Consolidation

b) Multi-task learning with some modify

刚才提到的问题,如果采用Multi-task learning:
可以看到: 如果先学习Task1, 再学习Task2; 那么当Task 2学完之后, Task 1的准确率就下降了很多, 这就是Forget!!! 这就是Transfer Learning所带来的问题, 也是Lifelong Learning 所需要解决的问题。

如果采用Multi-task Learning,需要把Task 1 和 Task2的训练数据都存储起来,需要的时候放在一起训练。 虽然可以看到Task 1和 Task 2都达到了不错的效果, 但是所有数据的存储会是一个很大的问题。

因此, 如何解决数据存储的问题呢?
借助于GAN网络来完成, 减少了数据存储,但带来了更大的计算量。

c) Model Expansion(but parameter efficiency)

Progressive Neural Network

Net2Net

4. Multi-task learning, Transfer Learning , LifeLong learning之间的区别

Transfer Learning VS LifeLong Learning: Transfer learning只考虑在当前任务上的效果; 而LifeLong Learning需要考虑在所有任务上的效果。
Multi-task Learning VS LifeLong Learning : LifeLong Learning训练时只用当前任务的数据; 而Multi-task Learning会用到之前所有任务的数据。这带来了数据存储以及计算量不断增大的问题; Multi-task learning可以看作是LifeLong learning的upper bound

5. 如何评价Life-long Learning的好坏

3个指标:

  • Accuracy 表征N个任务学完后总体的性能;
  • Backward Transfer: 表征N个任务学完后,总体遗忘的程度;通常为负数,越大越好;
  • Forward Transfer: 表征N个任务学完后,总体学习的程度;通常为正数,越大越好;

R(0, i) 表示在随机初始化的情况下,在Task i上的准确率。

6. 这个领域还有哪些前沿的研究方向

Curriculum Learning 类似于一个课程系的学习, 研究的是如何安排课程学习的先后顺序。

Taskonomy 研究的是各个任务之间的关系, 即该先学哪个,后学哪个。

【机器学习】LifeLong Learning(终身学习)介绍相关推荐

  1. 机器学习16 -- Lifelong Learning 终生学习

    1 什么是lifelong learning Lifelong learning终生学习,又名continuous learning,increment learning,never ending l ...

  2. 机器学习(Machine Learning)深度学习(Deep Learning)资料(Chapter 2)

    机器学习(Machine Learning)&深度学习(Deep Learning)资料(Chapter 2) - tony的专栏 - 博客频道 - CSDN.NET 注:机器学习资料篇目一共 ...

  3. 机器学习(Machine Learning)深度学习(Deep Learning)资料汇总

    本文来源:https://github.com/ty4z2008/Qix/blob/master/dl.md 机器学习(Machine Learning)&深度学习(Deep Learning ...

  4. 机器学习(Machine Learning)深度学习(Deep Learning)资料【转】

    转自:机器学习(Machine Learning)&深度学习(Deep Learning)资料 <Brief History of Machine Learning> 介绍:这是一 ...

  5. 机器学习(Machine Learning)深度学习(Deep Learning)资料集合

    机器学习(Machine Learning)&深度学习(Deep Learning)资料 原文链接:https://github.com/ty4z2008/Qix/blob/master/dl ...

  6. 机器学习 Machine Learning 深度学习 Deep Learning 资料

    机器学习(Machine Learning)&深度学习(Deep Learning)资料 機器學習.深度學習方面不錯的資料,轉載. 原作:https://github.com/ty4z2008 ...

  7. (转)机器学习(Machine Learning)深度学习(Deep Learning)资料

    原文链接:https://github.com/ty4z2008/Qix/blob/master/dl.md 机器学习(Machine Learning)&深度学习(Deep Learning ...

  8. 机器学习(Machine Learning)深入学习(Deep Learning)资料

    FROM:http://news.cnblogs.com/n/504467/ <Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章, ...

  9. 【github】机器学习(Machine Learning)深度学习(Deep Learning)资料

    转自:https://github.com/ty4z2008/Qix/blob/master/dl.md# <Brief History of Machine Learning> 介绍:这 ...

  10. 机器学习----(Machine Learning)深度学习(Deep Learning)资料(Chapter 1)

    文章转至:作者:yf210yf  感谢您提供的资源 资料汇总的很多,转载一下也方便自己以后慢慢学习 注:机器学习资料篇目一共500条,篇目二开始更新 希望转载的朋友,你可以不用联系我.但是一定要保留原 ...

最新文章

  1. java webpack web项目_官方出品,微信小程序和 Web 端同构解决方案——kbone
  2. 大型企业网络配置系列课程详解(三)--OSPF高级配置与相关概念的理解
  3. TensorFlow中RNN实现的正确打开方式
  4. IDEA 启动 Tomcat 乱码 解决办法
  5. vscode怎么运行verilog语言_VScode中不同语言使用不同字体,如C/C++,VHDL
  6. 关于java的JIT知识
  7. mysql分布式安装可靠读写案列图解,高并发下的分布式锁-mysql篇
  8. 每天一道LeetCode-----在有序的二维数组中查找某个元素
  9. 如何在SAP云平台上使用MongoDB服务 1
  10. java 程序执行后 强制gc_【GC系列】JVM的常用GC参数及GC日志解析
  11. python自带sqlite库_Python标准库之sqlite3使用实例
  12. 利用dex2jar反编译apk
  13. java lombok 插件_idea 安装 lombok 插件
  14. C++ QT学习之路----VS2017+QT环境搭建
  15. 线阵相机与面阵相机的区别在哪里?
  16. Web端与移动端接入萤石云平台的视频数据
  17. 项目整合微信扫码登录功能
  18. 哪款蓝牙耳机性价比最高?2023性价比高的蓝牙耳机推荐
  19. nuc企业微信自动打卡 autojs
  20. 1099:零起点学算法06——再来一题除法算术题

热门文章

  1. K8S YAML 详解
  2. 云上故事 | “电”亮数字生活,阿里云混合云助力南方电网智能调度
  3. android 高德地图移动卡顿_Xamarin.Forms Android使用高德地图SDK
  4. 学习逆变(DC-AC)电路和LLC的基本工作原理。
  5. 悟空浏览器——青龙羊毛
  6. 前端基础 HTML 第九章 使用框架结构 ----暑假学习第五天
  7. ios本地化_本地化101 iOS与Android
  8. 我们需要培养职业化的工作习惯
  9. 二维空间内,如何判断两条线段是否相交,相离,平行,重合,并求交点
  10. Vue2 Element | 一文带你快速搭建网页界面UI