EWC:Overcoming catastrophic forgetting in neural networks

概要

根据某些参数对先前任务的重要性来缓解某些参数权重的学习率

EWC

约束重要的参数以保持接近旧的值。解决问题:
  1. 为什么希望找到一个与旧任务解决方案相近的新任务
  2. 如何实现对参数的约束
  3. 如何确定某些参数是重要的

θ的不同配置可能导致一个相同的结果,因此新任务的参数可能和就任务的此参数相似。

将就任务的参数限制在一个误差较小的区域内。不同参数的重要性是不同的。

优化参数相当于在给定数据D后,找到参数最可能的值。

在已知先验概率p(θ)和数据的概率p( D | θ )计算后验概率p( θ | D ):

假设又A、B两个任务:

左边需要整个数据集,右边则只取决于B任务的损失函数

当训练好任务A后,直接采用梯度下降训练任务B,(蓝色箭头),最小化了B的损失,但是会忘记任务A。

若对每个参数都采用同等的约束效力(绿色箭头),无法学习新的任务B

计算每个参数的重要性进行约束(红色箭头)

将后验分布近似为高斯分布,其均值为θ*a(A任务的参数),又费雪信息矩阵给出对角线精度,费雪信息同等与KL散度的负二阶倒数。

因此可以定义EWC的损失函数:

LB(θ)为任务B的损失,通过λ来设置旧任务对于新人物的重要性,并对每个任务进行标签。

当出现任务C后,EWC会保持网络的参数接近任务A和任务B。

2.1 EWC allows continual learning in a supervised learning context

左图,在出现新任务后只有EWC能够对三个任务都又较高的准确率,每当有新任务出现后,SGD对旧任务识别的准确度都会下降,而L2对A任务一直有较好的准确率,但是对后续任务的识别效果不好。

中间的图,在随着任务数量的增多,EWC较之SGD展示了优秀的性能。

右图,当两个任务相似时,他们的fisher矩阵重叠的部分也较大,共用了相同的权重

EWC:Overcoming catastrophic forgetting in neural networks论文笔记相关推荐

  1. 论文---overcoming catastrophic forgetting in neural networks

    不定期更新--论文 overcoming catastrophic forgetting in neural networks 出处:2017 Jan 25 PNAS(proceedings of t ...

  2. Overcoming catastrophic forgetting in neural networks

    目录 预备知识: 论文笔记 1. Introduction 2. Elastic weight consolidation 2.1 EWC allows continual learning in a ...

  3. 【论文详读】Overcoming catastrophic forgetting in neural networks

    摘要 为了缓解神经网络灾难性遗忘,作者们提出了一种类似于人工神经网络突触巩固的算法(EWC).该方法通过选择性地放慢对那些任务重要权重的学习来记住旧任务,即该方法会根据权重对之前看到的任务的重要性来减 ...

  4. (EWC)Overcoming Catastrophic Forgetting in Neural Network

    论文链接:Overcoming Catastrophic Forgetting in Neural Network 1.论文基础思路 文章开发了一种类似于人工神经网络突触整合的算法,我们称之为弹性权重 ...

  5. Procedural Noise Adversarial Examples for Black-Box Attacks on Deep Neural Networks论文笔记

    Procedural Noise Adversarial Examples for Black-Box Attacks on Deep Neural Networks论文笔记 0. 概述 如今一些深度 ...

  6. 克服神经网络中的灾难性遗忘(EWC):Overcoming catastrophic forgetting inneural networks

    克服神经网络中的灾难性遗忘 Introduction Results EWC Extends Memory Lifetime for Random Patterns EWC Allows Contin ...

  7. Weighted-Entropy-based Quantization for Deep Neural Networks 论文笔记

    ---恢复内容开始--- 摘要 量化被认为是优化神经网络模型的推理成本的最有效方法之一,用于部署到具有严格资源限制的移动和嵌入式系统.在这种方法中,在严格的精度损失约束(例如,1%)下提供低成本量化是 ...

  8. [论文分享] Overcoming Catastrophic Forgetting in Incremental Few-Shot Learning by Finding Flat Minima

    我又来给大家分享PAPER了!!! 今天给大家分享的这篇论文是NIPS' 2021的一篇Few-Shot增量学习(FSCIL)文章,这篇文章通过固定backbone和prototype得到一个简单的b ...

  9. HAT:Overcoming Catastrophic Forgetting with Hard Attention to the Task

    HAT:Overcoming Catastrophic Forgetting with Hard Attention to the Task 采用注意力机制:在损失处添加正则化+路径,反向传播+嵌入梯 ...

最新文章

  1. Bootstrap系列 -- 38. 基础导航条
  2. cpio用法详细说明
  3. 前端学习(2560):理解虚拟dom和key
  4. android第二十步摄像
  5. ubuntu自带截图工具--方便好用
  6. 资源放送丨《Oracle DataGuard 备份恢复最佳实践 》PPT视频
  7. java 判断当前时间是否为节假日_浅谈Java8日期时间处理
  8. DAG最小可重路径覆盖or最长反链的一种做法
  9. JS函数之间的调用(函数内调用一个函数、调用函数内部的函数)
  10. IDEA中自动导包及快捷键
  11. Axure原型设计说明
  12. php mysql上机题_基于PHP+MySQL的题库管理系统
  13. Java日期计算总结(包含工作日排除节假日)
  14. 杂文笔记(一):博弈论在网络安全中的应用
  15. [MSSQL2005]再看CTE
  16. 镜头的焦距与视场角简介!
  17. 22种设计模式——原型模型
  18. 微信小程序之-NBA赛程小程序开发
  19. html图片中绝对定位,CSS中绝对定位
  20. 自己动手配置AMD 5600g 主机

热门文章

  1. getaddrinfo的用法
  2. BUUCTF:二维码
  3. 容联云通讯—+springboot
  4. 简单聊聊mysql的脏读、不可重复读、幻读
  5. Ignite安装配置——上篇
  6. 计算机在医学未来的应用,计算机在医疗卫生领域中的应用现状及前景
  7. 神经网络中的梯度是什么,神经网络梯度公式推导
  8. STM32F103学习笔记(3.0)——中断
  9. 阿里 热更新 添加过程及工具文档地址
  10. SRM系统排名,国内做srm系统的公司