2021 Lifelong learning(李宏毅
Lifelong learning探讨的问题是,一个模型能否在很多个task上表现都很好。如此下去,模型能力就会越来越强。
Life Long Learning 的難點出在什麼樣的地方:
這個算是同一個任務 不同的 Domain
機器先學個語音辨識、再學個翻譯、再学个影像辨识。。Lifelong learning沒有做到那個程度
一般在 Life Long Learning 的文獻上,所謂的不同任務指的差不多就是我这里例子的等级,
e.g.2 问答系统
人们刚开始想用 Deep Learning 的技術解QA问题时,
Facebook定义了20个简单的QA任务 bAbi训练集、bAbi 裡面的文章都是用某種規則生成的
这里让机器从第一个任务开始学习,学到第20个。
并不是因為機器就是沒有能力多学好几个任务,如果我們把20個任務的資料通通倒在一起:
catastrophic forgetting
multi-task training很难实现,要保存所有的旧资料才行,学习可能很久(存储、computation问题),
multi-task training往往视为 Life Long Learning的upper bound
如果我們是不同的任務就用不同的模型、不同任務的資料間就不能夠互通有無、没法从其他的任务里,汲取單一個任務所沒有辦法學到的資訊
二、终身学习v.s.Transfer Learning
Transfer Learning: 虽然也涉及两个任务,但是它关心的是第一个任务上学到的模型在第二个任务上的应用,而不关心它是否仍能解决任务1。
三、终身学习的评估
這些是我們把每一個數字用某一種固定的規則把它打亂、每个任务把数字做不同的打乱,
2、先将随机初始化的参数模型用在所有任务上得出每个任务的正确性;接下来学第一个任务,再在t个任务上计算正确率;学完第二个任务后,同样的操作,直到第t个任务。
四、3个life long learning的可能解法
1、选择性突触的可塑性
Synaptic 是突觸的意思,就是我們腦神經中 神經跟神經之間的連結
那像這樣的方法又叫做Regularization-based 的方法、這個研究的面向,在LLL领域里,我覺得是發展得最完整的
(1)Catastrophic Forgetting 的現象是怎麼來的
(2)如何解决
有方法可以讓 NN 加一些約束、讓它和原本的參數不要差太多、讓它記得舊的任務怎麼做嗎、這就是等一下 Life Long Learning 的、其中一個最常用的解法
所以解决办法的思想是:一些模型中重要的参数改变很小,而不重要的参数可以改变较大
在 Lifelong Learning 的研究裡面、關鍵的技術就在於 我們怎麼設定這個 bi、那如果 bi 用 Learn 的到底行不行呢 可能不太行
就是我們要算 Parameter 的重要性這件事情、在一個任務訓練完之後、馬上就把參數的重要性記錄下來、之后,舊的任務的所有的資料 就都可以被丟掉了、所以和GEM还是不太一样的,
改變任務的順序、結果就會差很多、所以这些paper里面,他們在做實驗的時候、都不是只做一種任務的順序、他們會窮舉所有任務的順序出來做實驗、然後再取它的平均值
其实 Regularization Based 的方法、還有一個早年的做法GEM,但它不是在參數上做限制、而是在 Gradient Update 的方向上做限制
修改的条件是,找到一个新的g`, g`和gb做inner product≥0,g`和g 不能差太多,
gb的计算意味着GEM法需要存task1的资料,但只需要存非常少量的資料就好
但是像EWC这类 Regularization Based 的方法、它們需要佔用額外的空間、來儲存舊的模型跟儲存 bi
2、Additional neural resource allocation
也就是我们改变一下 使用在每一個任務裡面的 Neural 的 Resource
训练任务2时不要动任务1学到的模型,你另外再多開一個 Network、这个network会吃任务1的Hidden Layer 的 Output 作為輸入
任務一學出來的參數、都不要再去動它了、我們只多新增一些額外的參數、我們只 Train 額外的參數
PackNet它是 Progressive Networks 的反過來
Progressive Networks 是每次有新任务进来就多加一些neural,PackNet它說我們先開一個比較大的 Network,每次有新任务进来,只用大network的一部分参数,
PackNet和Progressive Networks可以结合在一起,知名的 CPG,model
既可以增加新的參數、每一次又都只保留部分的參數可以拿來做訓練
三、memory reply
我们实验室的经验表明,這一種 Generate Data 的方法非常有效,往往可以逼近upper bound
我們剛才講的 Lifelong Learning 的 Scenarios,我们都假设每个任务需要的模型就是一樣的
我們甚至強迫限制說,每个任务我们要训练的classifer、它們需要的 Class 量都一样
其实 我們今天講的 Lifelong Learning只是整個 LLL 領域研究裡面的其中一小塊,其中某一个情景
你可以閱讀一下下面這邊統整的文獻、会告诉你Lifelong Learning 有三個情境
做task的顺序是重要的, 看起来有一些顺序会让我们没有 catastrophic forgetting问题,而研究什么顺序好 叫curriculum learning
2021 Lifelong learning(李宏毅相关推荐
- 李宏毅——终身学习lifelong learning
李宏毅--终身学习lifelong learning 导读 要解决的问题 如何解决 遗忘问题 Elastic Weight Consolidation(EWC) 基本思想 理解 EWC的变形 其他方法 ...
- Life-Long Learning(LLL)终身学习的理解
Life-Long Learning(LLL) 看了李宏毅老师的Life-Long Learning视频,以及粗略阅读了A continual learning survey:Defying forg ...
- lifelong learning 部分总结
注: 深度学习领域小白,文章如有问题,欢迎批评指正. 部分翻译论文(Continual lifelong learning with neural networks: A review)发表在 Neu ...
- 【论文理解】Few-Shot Lifelong Learning
内容概览 前言 一.少样本增量学习概念 二.少样本增量学习问题描述 三.论文算法介绍 1. 基础训练 2. 增量训练 选择可训练参数 损失函数 四.实验结果 总结 前言 今天介绍的这篇论文和前面我看过 ...
- Continual Learning/Lifelong Learning/Incremental Learning
一.浅谈持续学习 持续学习(Continual Learning)又叫终身学习(Lifelong Learning)又叫增量学习(Incremental Learning).增量学习是可取的,因为它允 ...
- (转)Paper list of Meta Learning/ Learning to Learn/ One Shot Learning/ Lifelong Learning
Meta Learning/ Learning to Learn/ One Shot Learning/ Lifelong Learning 2018-08-03 19:16:56 本文转自:http ...
- 【机器学习】LifeLong Learning(终身学习)介绍
下面的文章转自(已获作者允许): 2020机器学习前沿技术----LifeLong learning - stephon的文章 - 知乎 文章介绍了关于机器学习比较前沿的一项技术,也就是LifeLon ...
- 【论文翻译】Task Difficulty Aware Parameter Allocation Regularization for Lifelong Learning
Task Difficulty Aware Parameter Allocation & Regularization for Lifelong Learning 面向终身学习的任务难度感知参 ...
- 持续学习 (continual learning/ life-long learning)详解
作者:夕小瑶的卖萌屋-- 「小鹿鹿鹿 」 问题定义 我们人类有能够将一个任务的知识用到另一个任务上的能力,学习后一个任务时也不会忘记如何做前一个任务.这种能力叫持续学习 (continual lear ...
最新文章
- linux意外重启分析,Linux关机重启流程分析
- A1035. 素数之和
- weblogic与sitemesh乱码问题
- linux关机时循环输出脚本,Linux关机时执行指定脚本功能实现
- View的三大流程之View的测量
- android 日历日期,android 日历 开始日期 与结束日期
- 666的vue.mixin
- 将截断字符串或二进制数据 语句已终止
- dockerfile制作docker镜像
- python概述ppt_江红-第1章-Python概述ppt
- 连续发送(刷屏)器(适用于Dev-C++ 5.11版本)
- 神雕外挂 神雕ol外挂 http://www.shaguayou.com
- JS面试题汇总(六)
- 为什么5G能比4G快十倍?
- 七参数/六参数坐标转换(小角度)-- 公共点间接平差
- 计算机上如何转换搜狗,无法切换到搜狗输入法怎么办
- 解决fullpage尾屏半屏问题
- Eden和Survivor
- 从互联网到物联网:下一个创新风口到来
- python蜂鸣器天空之城频率_如何把两个程序合在一起实现(小车超声波避障+蜂鸣器音乐《天空之城》)...
热门文章
- 国际象棋“皇后”问题的回溯算法
- 最新流氓网站8749病毒专杀工具下载
- Python描述数据结构之图实战篇
- 以色列计算机科学家,以色列科学家教电脑后悔以提高预测能力(图)
- 解决security引入actuator后所有接口401问题
- S4 HANA在采购委外的一些区别:
- 简单的五子棋(人人对战)
- 微信小程序在线考试系统 毕业设计(5)答题卡
- [RK3288][Android6.0] WiFi之NetworkAgent对评分的更新
- 尚硅谷 天禹老师 Vue学习笔记总计(自己复习用)