EWC:Overcoming catastrophic forgetting in neural networks论文笔记
EWC:Overcoming catastrophic forgetting in neural networks
概要
根据某些参数对先前任务的重要性来缓解某些参数权重的学习率
EWC
约束重要的参数以保持接近旧的值。解决问题:
- 为什么希望找到一个与旧任务解决方案相近的新任务
- 如何实现对参数的约束
- 如何确定某些参数是重要的
θ的不同配置可能导致一个相同的结果,因此新任务的参数可能和就任务的此参数相似。
将就任务的参数限制在一个误差较小的区域内。不同参数的重要性是不同的。
优化参数相当于在给定数据D后,找到参数最可能的值。
在已知先验概率p(θ)和数据的概率p( D | θ )计算后验概率p( θ | D ):
假设又A、B两个任务:
左边需要整个数据集,右边则只取决于B任务的损失函数
当训练好任务A后,直接采用梯度下降训练任务B,(蓝色箭头),最小化了B的损失,但是会忘记任务A。
若对每个参数都采用同等的约束效力(绿色箭头),无法学习新的任务B
计算每个参数的重要性进行约束(红色箭头)
将后验分布近似为高斯分布,其均值为θ*a(A任务的参数),又费雪信息矩阵给出对角线精度,费雪信息同等与KL散度的负二阶倒数。
因此可以定义EWC的损失函数:
LB(θ)为任务B的损失,通过λ来设置旧任务对于新人物的重要性,并对每个任务进行标签。
当出现任务C后,EWC会保持网络的参数接近任务A和任务B。
2.1 EWC allows continual learning in a supervised learning context
左图,在出现新任务后只有EWC能够对三个任务都又较高的准确率,每当有新任务出现后,SGD对旧任务识别的准确度都会下降,而L2对A任务一直有较好的准确率,但是对后续任务的识别效果不好。
中间的图,在随着任务数量的增多,EWC较之SGD展示了优秀的性能。
右图,当两个任务相似时,他们的fisher矩阵重叠的部分也较大,共用了相同的权重
EWC:Overcoming catastrophic forgetting in neural networks论文笔记相关推荐
- 论文---overcoming catastrophic forgetting in neural networks
不定期更新--论文 overcoming catastrophic forgetting in neural networks 出处:2017 Jan 25 PNAS(proceedings of t ...
- Overcoming catastrophic forgetting in neural networks
目录 预备知识: 论文笔记 1. Introduction 2. Elastic weight consolidation 2.1 EWC allows continual learning in a ...
- 【论文详读】Overcoming catastrophic forgetting in neural networks
摘要 为了缓解神经网络灾难性遗忘,作者们提出了一种类似于人工神经网络突触巩固的算法(EWC).该方法通过选择性地放慢对那些任务重要权重的学习来记住旧任务,即该方法会根据权重对之前看到的任务的重要性来减 ...
- (EWC)Overcoming Catastrophic Forgetting in Neural Network
论文链接:Overcoming Catastrophic Forgetting in Neural Network 1.论文基础思路 文章开发了一种类似于人工神经网络突触整合的算法,我们称之为弹性权重 ...
- Procedural Noise Adversarial Examples for Black-Box Attacks on Deep Neural Networks论文笔记
Procedural Noise Adversarial Examples for Black-Box Attacks on Deep Neural Networks论文笔记 0. 概述 如今一些深度 ...
- 克服神经网络中的灾难性遗忘(EWC):Overcoming catastrophic forgetting inneural networks
克服神经网络中的灾难性遗忘 Introduction Results EWC Extends Memory Lifetime for Random Patterns EWC Allows Contin ...
- Weighted-Entropy-based Quantization for Deep Neural Networks 论文笔记
---恢复内容开始--- 摘要 量化被认为是优化神经网络模型的推理成本的最有效方法之一,用于部署到具有严格资源限制的移动和嵌入式系统.在这种方法中,在严格的精度损失约束(例如,1%)下提供低成本量化是 ...
- [论文分享] Overcoming Catastrophic Forgetting in Incremental Few-Shot Learning by Finding Flat Minima
我又来给大家分享PAPER了!!! 今天给大家分享的这篇论文是NIPS' 2021的一篇Few-Shot增量学习(FSCIL)文章,这篇文章通过固定backbone和prototype得到一个简单的b ...
- HAT:Overcoming Catastrophic Forgetting with Hard Attention to the Task
HAT:Overcoming Catastrophic Forgetting with Hard Attention to the Task 采用注意力机制:在损失处添加正则化+路径,反向传播+嵌入梯 ...
最新文章
- Bootstrap系列 -- 38. 基础导航条
- cpio用法详细说明
- 前端学习(2560):理解虚拟dom和key
- android第二十步摄像
- ubuntu自带截图工具--方便好用
- 资源放送丨《Oracle DataGuard 备份恢复最佳实践 》PPT视频
- java 判断当前时间是否为节假日_浅谈Java8日期时间处理
- DAG最小可重路径覆盖or最长反链的一种做法
- JS函数之间的调用(函数内调用一个函数、调用函数内部的函数)
- IDEA中自动导包及快捷键
- Axure原型设计说明
- php mysql上机题_基于PHP+MySQL的题库管理系统
- Java日期计算总结(包含工作日排除节假日)
- 杂文笔记(一):博弈论在网络安全中的应用
- [MSSQL2005]再看CTE
- 镜头的焦距与视场角简介!
- 22种设计模式——原型模型
- 微信小程序之-NBA赛程小程序开发
- html图片中绝对定位,CSS中绝对定位
- 自己动手配置AMD 5600g 主机