一、研究背景

终身学习的目标是在不忘记先前获得的知识的情况下学习一系列任务。然而,由于隐私或版权的原因,所涉及的培训数据可能不是终身合法的。例如,在实际场景中,模型所有者可能希望不时地启用或禁用对特定任务或特定示例的知识。不幸的是,这种对知识转移的灵活控制在以前的增量或递减学习方法中被很大程度上被忽视了,即使是在问题设置水平上。

二、解决的问题

在原文中,作者探索了一种新的学习方案,称为学习与可恢复遗忘(LIRF),它明确地处理任务或样本特定的知识去除和恢复。具体来说,LIRF引入了两种创新方案,即知识存储和提取,它们允许将用户指定的知识从预先训练过的网络中分离出来,并在必要时将其注入回来。在知识存储过程中,从目标网络中提取指定的知识并存储在存储模块中,同时保留目标网络的不敏感或一般知识。

三、创新

(1)作者介绍了一种新颖而实用的终身学习设置,可恢复遗忘

(2)原文提出了Learning with Recoverable Forgetting也就是LIRF,这个工作很具有开创性,对后续的工作都有一些启发。

四、文章内容

1.introduction

终身学习在广泛的领域得到应用,是一项长期的研究任务。它的主要目标是更新网络以适应新的数据,比如新的实例或来自新类的样本,而不忘记对过去数据的学习知识。相反,在某些情况下,由于隐私或版权问题,我们希望故意忘记或删除模型存储的特定知识。这项被称为机器遗忘的任务,由于其实用价值,也受到了行业和研究界越来越多的关注。

之前对机器遗忘的尝试主要集中在永久删除特定的知识上,这意味着一旦被删除,就不可能恢复这些知识。在这篇文章中,作者探索了一种新的学习场景,它明确地允许从预先训练过的网络中提取的知识被存储下来,并在需要时被注入到模型中。

图1  LIRF图

当请求删除指定的知识时,表示为Dr(保留Dr),由于IP等问题,LIRF将这些知识从预先训练过的原始网络中分离出来,存储在一个存储模块中;然后将提取Dr的剩余网络表示为目标网络。当IP问题得到解决,模型所有者要求恢复知识或重新启用Dr时,LIRF会撤回存储的知识,并将其与目标网络合并,以生成恢复网络。

2.Related Work

(1)Life-long Learning

        Life-long/online/incremental learning 能够终生学习、保留和传递知识,一直是[1,2,3]许多领域的一个长期研究领域。与目前关于终身学习的研究不同,我们提出了更灵活的学习方案,它能够同时处理数据的添加和删除案例.

(2)Knowledge Transfer

知识转移的目的是将knowledge从网络转移到网络,作者主要讨论了knowledge distillation过程中的相关工作[4,5,6]。作者首次作出了对knowledge进行过滤和存储

(3)Machine Unlearning

        用户应该拥有访问和删除他们共享到网络上数据的权利, 这是多数数据安全法和隐私保护法中规定的权利.不过现实是这个权利通常不能得到保障, 而在AI时代, 机器学习的广泛应用更是加剧了这个问题, 因为一个用数据训练好的模型会记住相关数据. 此外一些成功的模型攻击技术也会泄露模型中的数据导致用户隐私泄露的风险, 因此模型遗忘是一个必要的需求

3.Knowledge Deposit and Withdrawal

LIRF框架关注于class-level的终身问题,其中来自多个类的样本可能被存储或撤回,图2提出的LIRF框架。knowledge从原网络完全和部分地转移到存款模块和目标网络。恢复网络从目标网和存款模块中提取出来。

图2 LIRF框架

作者定义了数据集D,作为包含了全部数据的原始数据集,然后在D上训练的原始神经网络称为,在这个问题中,每个学习到的样本都被分配到deposit set或者preservation set。

Deposit set :在target network  应该被遗忘,在deposit module  应该被记忆的样本

Preservation set  一组应该存储在目标网络上的一组样本(Dr的补充)

为了明确起见,作者讨论了一种情况,一个deposit set 需要被 deposit 和 withdrawal ,这可以肯定地推广到多个deposit set。为此作者提出了:

 (1)Deposit Problem:有两个模型,一个是 T : X → Y that should map an input x to its correct class label y if x ⊂ , while map x to a wrong class label if x ⊂ 另一个 是 Tr : X → F 它存储了 the knowledge of set Dr.

Constraints: Only the original network T0 and deposit set Dr are available.

        (2)Withdraw Problem:Recover a model : X → Y that should map an input x to its correct class label y for both x ⊂ Dr, and x ⊂ .

        Constraints: Only the target network T and deposit module T r are available.

4.Learning with Recoverable Forgetting

LIRF由两个过程组成,一个是knowledge deposit,将 knowledge 从原始网络转移到目标网络和deposit module,另一个是 knowledge withdrawal,将knowledge恢复到恢复网络。

 是原始神经网络,是Deposit set ,是目标网络,是deposit module,是recover network。

(1)Filter Knowledge out of Target Net

在 knowledge deposit 的过程中,重要的是怎么把Dr样本中的特定knowledge去除还不影响模型的训练效果。

首先要把在第n块处分为两个模块,分别记为的划分方式和一样,分为,在之前的工作中[7],上层的部分更适合终身学习,完全用于目标模型。

为此, 作者让一小部分数据块 ( = ),也就是  和 有一部分小交叉, 希望特们共享信息,而且差异量也比较小. 因此作者将  的部分完全转移到 ,并且将 部分转移到  , 因为网络的较低层包含更多的样本特定知识。

1)Sample-specific knowledge removal

作者提供了两种knowledge removal方法:

        一种是目标网络无法在deposit set Dr 上面预测不好另一种是Dr的knowledge无法从  T中蒸馏出来.
        对于每个输入x⊂Dr,我们分配一个随机标签yr,并使T对Dr进行随机预测,将最大限度的注意力转移的损失应用于 的输出。
        Thus, the loss  for knowledge removal is calculated as:

λat 是权重,是交叉熵损失[8],  [9]是过滤后的注意力蒸馏损失项, 的计算如下:

根据上式课件,如果(T(x),yr)的值比较大,证明x在目标模型上面效果不好,后面一项比较小证明,去掉x后对原始模型的影响不大,那正好符合deposit set的条件。说明越大,越适合作为deposit set的数据。、

2)General knowledge preservation

目标网络需要保留两种knowledge,One is the knowledge coming from the preservationthe other is the general knowledge from the .

        由于目标网络T是用原始网络初始化的,而T的最后几个块在微调时保持不变,因此通过从完全转移到,已经保留了部分知识。

        In addition to it, the partial knowledge transfer with filter g is proposed on the -related
knowledge so as to prevent catastrophic forgetting on , which is:

是 KL-divergence loss[10],T s是 temperature,   和  分别是 T and T0的对数,滤波器g选择与preservation set 的类对应的对数,通过最小化 ,将知识部分转移到目标网络。

计算方法如下:

logits是几率:

例如logits = [4,3.9,1]

文中g的介绍不多,但我猜测应该是选出logits中最大的那一个,比如g[0.511,0.4629,0.025714] = 0.511.

(2)Deposit Knowledge to Deposit Module

作者所提出的LIRF与传统的非学习问题的关键区别在于,作者将特定于样本的知识存储到存储模块中,而以前的unlearning methods中直接删除。

deposit module(存储模块需要有两个特性):容易被recover network恢复、容易被存储。

为了得到一个更好的knowledge容器,作者用修剪后的原始网络初始化了存款模块:

其中,作者使用简单的排序方法,通过计算其绝对核权值的和来进行修剪[11] ,裁剪之后不仅减少了模型的存储空间,而且只存储Dr的样本特定知识,而不是整个知识。

此外,与类似,应用带有滤波器g的部分知识转移损失Lpt,通过以下方法来增强该样本特定的知识。

通过最小化损失Lpt,将样本特定的知识转移到存储模块,同时我们也将Tr调整到易于提取的模块,这意味着该知识对于恢复网络T是可恢复的。因此,在存款过程中,提前考虑了博士的恢复性能,以减少恢复净价值的分类损失:

(3)Withdraw Knowledge to Recover Net

        一旦知识被成功存储,提出的LIRF框架就完成了,其中知识可以直接提取,不需要任何微调,更不用说不需要任何数据了。

恢复网被重构而不进行微调,其形式为:

更新LIRF框架的总体损失函数为:

四、reference

[1] Wu, C., Herranz, L., Liu, X., Wang, Y., van de Weijer, J., Raducanu, B.: Memory replay gans: Learning to generate new categories without forgetting. In: Conference and Workshop on Neural Information Processing Systems (2018)

[2] Shmelkov, K., Schmid, C., Alahari, K.: Incremental learning of object detectors without catastrophic forgetting. IEEE International Conference on Computer Vision pp. 3420–3429 (2017)

[3]  Liu, H., Yang, Y., Wang, X.: Overcoming catastrophic forgetting in graph neural networks. In: AAAI Conference on Artificial Intelligence (2021)

[4] Hinton, G.E., Vinyals, O., Dean, J.: Distilling the knowledge in a neural network. Neural Information Processing Systems (2015)

[5] Han, X., Song, X., Yao, Y., Xu, X.S., Nie, L.: Neural compatibility modeling with probabilistic knowledge distillation. IEEE Transactions on Image Processing 29, 871–882 (2020)

[6] Yang, Y., Qiu, J., Song, M., Tao, D., Wang, X.: Distilling knowledge from graph convolutional networks. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (2020)

[7] Lee, S., Behpour, S., Eaton, E.: Sharing less is more: Lifelong learning in deep networks with selective layer transfer. In: International Conference on Machine Learning (2021)

[8]https://blog.csdn.net/LuminCynthia_/article/details/120652438

[9] Zagoruyko, S., Komodakis, N.: Paying more attention to attention: Improving the performance of convolutional neural networks via attention transfer. arXiv preprint arXiv:1612.03928 (2016)

[10] https://blog.csdn.net/LuminCynthia_/article/details/124227087

[11] Li, H., Kadav, A., Durdanovic, I., Samet, H., Graf, H.P.: Pruning filters for efficient convnets (2016)

Learning with Recoverable Forgetting阅读心得相关推荐

  1. libevent源码学习-----阅读心得

    框架设计思路 libevent使用统一事件源将所有问题都转化为event,比如将套接字/信号/描述符都在内部转化为event,由相应的io多路复用函数进行监控. 为了提供对超时event的支持,lib ...

  2. 《让大象飞》阅读心得

    该书作者是史蒂文·霍夫曼,硅谷重量级创业教父.天使投资人.演讲人,<福布斯>杂志排名第一的创业孵化器Founders Space创始人,人称 "霍夫曼船长".个人建议正 ...

  3. 假如给我三天光明阅读心得收获

    假如给我三天光明阅读心得收获(篇一) <假如给我三天光明>是我读过的最励志的一本书,没有之一.读完这本书,会让你整个人发生蜕变.这本书流露出的真情实感让人印象特别深刻,让你觉得你的命运和海 ...

  4. DenseNet阅读心得体会

    ** DenseNet阅读心得体会 ** \qquad深度学习是机器学习的一个分支,它是伴随着计算机硬件技术的发展而兴起的.关于深度学习的起源可以追溯到1943年,心里学家麦卡洛克和数学逻辑学家皮兹发 ...

  5. 【增量学习】综述解析:A continual learning survey: Defying forgetting in classification tasks

    论文:Delange, M., Aljundi, R., Masana, M., Parisot, S., Jia, X., Leonardis, A., Slabaugh, G., Tuytelaa ...

  6. 《卓有成效的管理者》阅读心得

    物尽其用 人尽其才 --<卓有成效的管理者>阅读心得 12330227 计应2班 吕顺 读过潘老师推荐的彼得德鲁克的经典著作<卓有成效的管理者>,我深深地为其中的发人深省的管理 ...

  7. Deep Learning Based Registration文章阅读(五)《Anatomy-guided Multimodal Registration by Learning Segment 》

    Deep Learning Based Registration文章阅读(五) 这篇文章是MIA2021新出的一篇文章<Anatomy-guided Multimodal Registratio ...

  8. 协作通信关键技术(王辉)阅读心得

    协作通信关键技术(王辉)阅读心得 第五章 LTE/LTE-A系统CoMP关键技术 5.3 CoMP系统综述 5.3.1 CoMP场景 5.3.2 下行CoMP 第五章 LTE/LTE-A系统CoMP关 ...

  9. 【PaddlePaddle论文复现】LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS阅读心得

    [PaddlePaddle论文复现]LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS阅读心得 作者:Andrew B ...

最新文章

  1. 计算机分级存储的特,一种分级存储的方法、系统、设备及介质技术方案
  2. 将构件发布到私有的nexus maven 仓库
  3. 使用二进制xtrabackup遇到的问题
  4. mysql 判断是否日期类型_MySQL:日期类型
  5. 用汇编的眼光看C++ (之x86汇编)
  6. uva-993-贪心
  7. 「Leetcode」142.环形链表II:环找到了,那入口呢?
  8. vue实现导出excel的两种方式
  9. Xweibo2.0nbsp;游客可以访问任何页面【…
  10. jQuery boxy弹出层插件中文演示及讲解(转)
  11. 【线性代数笔记】矩阵的合同关系
  12. c语言中char的赋值
  13. 车牌号正则校验(新能源)
  14. 直接拿来用!最火的前端开源项目
  15. erewrwerwer
  16. 工具推荐:用VS code 导出、导入和运行Excel中的VBA代码
  17. css3选择器详细探索
  18. 如何对matlab中的数组取平均值
  19. AcWing 715. 余数
  20. 关于关于高博3d2d程序报错的改动

热门文章

  1. 十张图,数据分析如何赋能销售
  2. ③ESP8266 开发学习笔记_By_GYC 【虚拟机Ubuntu系统的安装】
  3. 学习C语言的必要之处
  4. 白内障手术如何选择人工晶体?
  5. 物联网 android前景,物联网卡的发展前景
  6. 【每日新闻】看清小米生态链,再说它值多少钱 | 工信部:二月份查处“黑广播”违法犯罪案件206起
  7. VFP调用WIN32API之路,让你的软件更强大
  8. 解决主机无法通过网络访问虚拟机的问题
  9. libcurl入门之http通信(2)
  10. 马云称双11对阿里没什么意义;Python成为GitHub第二流行的语言;​华为首款可折叠屏5G手机今日开售 | EA周报...