作者 篇名 会议 时间 页码
Yige Li Xixiang Lyu Nodens Koren Lingjuan Lyu Bo Li Xingjun Ma Neural Attention Distillation: Erasing Backdoor Triggers from Deep Neural Networks ICLR:International Conference on Learning Representations 2021/2/26 19

创新与方案

提出了一种新的后门清除方法——神经注意力蒸馏(NAD),用于DNNs的后门防御。其灵感来源于知识蒸馏[1]与神经注意力转移[2]。NAD是一个蒸馏引导的微调过程,具体来说是通过一个微调的教师网络来指导在一小部分干净的训练数据上对后门的学生网络进行微调,从而使学生网络的中间层注意力与教师网络的注意力完全一致。

图1:后门擦除技术的管道。(a)标准的微调过程,(b)我们提出的NAD方法,以及(c)我们以ResNet(He等人,2016)为例的NAD框架。NAD按照两步程序消除后门触发。1)通过用干净的训练数据子集微调后门网络来获得教师网络,然后2)通过神经注意力提炼过程来联合教师和学生。注意力表征是在每个残差组之后计算的,NAD蒸馏损失是以教师和学生网络的注意力表征来定义的。

主要问题:找到适当的注意力表征来进行提炼。

注意力函数:

Asum(Fl)=∑i=1C∣Fil∣;Asump(Fl)=∑i=1C∣Fil∣p;Ameanp(Fl)=1C∑i=1C∣Fil∣p(1)A_{sum}(F^l) = \sum^C_{i=1} |F^l_i|; A^p_{sum}(F^l) = \sum^C_{i=1}|F^l_i|^p; A^p_{mean}(F^l) = \frac{1}{C} \sum^C_{i=1}|F^l_i|^p\tag{1}Asum​(Fl)=i=1∑C​∣Fil​∣;Asump​(Fl)=i=1∑C​∣Fil​∣p;Ameanp​(Fl)=C1​i=1∑C​∣Fil​∣p(1)

(1) 其中FilF^l_iFil​是第i个通道的激活图,|-|是绝对值函数,p>1,A:RC×H×W→RH×WA:R^{C×H×W}→R^{H×W}A:RC×H×W→RH×W是一个注意力算子,它将激活图映射到一个注意力表示。直观地说,AsumA_{sum}Asum​反映了所有的激活区域,包括良性神经元和后门的的神经元。AsumpA^p_{sum}Asump​是AsumA_{sum}Asum​的一个广义版本,它将被后门的神经元和良性神经元之间的差异放大了一个p的数量级。换句话说,p越大,具有最高神经元激活的部分的权重就越大。通过取所有激活区域的平均值,AmeanA_{mean}Amean​通过取所有激活区域的平均值,使后门的神经元的激活中心与良性神经元的激活中心一致。这是在实验中对这三种注意力表征进行的经验性解释。

注意力蒸馏损失 在整个蒸馏过程中,教师网络保持固定。网络第l层的蒸馏损失是以教师和学生的注意力图谱来定义的。

LNAD(FTl,FSl)=∣∣A(FTl)∣∣A(FTl)∣∣2−A(FSl)∣∣A(FSl)∣∣2∣∣2(2)\mathcal L_{NAD}(F^l_T, F^l_S)= \bigg|\bigg|\frac{A(F^l_T)}{||A(F^l_T)||_2} -\frac{A(F^l_S)}{||A(F^l_S)||_2}\bigg|\bigg|_2 \tag{2}LNAD​(FTl​,FSl​)=∣∣∣∣​∣∣∣∣​∣∣A(FTl​)∣∣2​A(FTl​)​−∣∣A(FSl​)∣∣2​A(FSl​)​∣∣∣∣​∣∣∣∣​2​(2)

其中∣∣⋅∣∣2||·||_2∣∣⋅∣∣2​是L2范数。

总体损失
整体训练损失是交叉熵(CE)损失和所有K个残余组的神经元注意力蒸馏(NAD)损失之和的组合:

Ltotal=E(x,y)∼D[LCE(FS(x),y)+β∑i=1KLNAD(FTl(x),FSl(x))](3)\mathcal L_{total}= \mathbb E_{(x,y)∼D[\mathcal L_{CE\,\,}(F_S(x), y) + β\sum^K_{i=1}\,\mathcal L_{NAD\,\,\,}(F^l_T\,\,(x), F^l_S(x))]}\tag{3}Ltotal​=E(x,y)∼D[LCE​(FS​(x),y)+β∑i=1K​LNAD​(FTl​(x),FSl​(x))]​(3)

其中LCE(−)L_{CE}(-)LCE​(−)衡量学生网络的分类误差,D是用于微调的清洁数据子集,l是残差组的索引,β是控制注意力蒸馏强度的超参数。

创新优势

之前的后门清除方法:之前的后门清除方法中,虽然都能减轻后门攻击,但都存在着一些问题,如灾难性遗忘、计算成本高等,且都可以被最新的攻击方法所绕过。

NAD:是迄今为止对各种后门攻击最全面和有效的防御方法,此外,作者还提议使用注意力图作为评估后门防御机制性能的一个直观表示。

攻击与防御实验

设置6种最先进的后门攻击:1)BadNets 2)木马攻击,3)混合攻击,4)清洁标签攻击(CL),5)正弦信号攻击(SIG),以及6)反射攻击(Refool)

防御比较使用:1)标准微调,2)精细修剪,3)模式连接修复(MCR)使用相同的5%的清洁训练数据。

表1:使用攻击成功率(ASR)和分类准确性(ACC)评估4种后门防御方法对6种后门攻击的性能。偏差表示与基线(即无防御)相比,ASR/ACC的变化百分比。Refool的实验是在GTSRB上进行的,而所有其他实验是在CIFAR-10上进行的。最好的结果用粗体表示。

注意力图直观表示后门消除过程

图3:通过不同的防御方法在WRN-16-1的每个残余组学到的注意力图的可视化,用于BadNets(左)或CL(右)的后门图像(见附录A)。我们的NAD方法在深层(如第3组)表现出了更有效的擦除效果。

其他工作

  1. 不同比例的清洁数据下的有效性

图2:4种后门擦除方法在不同可用干净数据百分比下的性能。这些图显示了所有6次攻击的平均ASR(左)和ACC(右)。NAD使用20%的干净数据将ASR显著降低到接近0%。

  1. 不同注意力函数的情况下的表现:Asum2A^2_{sum}Asum2​取得了最好的整体结果。

  2. 比较了注意力蒸馏与特征蒸馏之间的差异:注意力蒸馏更具优势。一是整合,因为注意力算子计算不同通道的激活图的总和(或平均值)(见公式1)。因此,它可以提供一个整体触发效应的综合测量。相反,如果我们直接使用原始激活值,触发效应可能会分散到不同的通道。二是正则化。由于其整合效应,注意图包含了后门触发的神经元和良性神经元的激活信息。这一点很重要,因为后门神经元可以从注意图中获得额外的梯度信息,即使它们没有被干净的数据激活。此外,注意图的维度比特征图低。这使得基于注意力图的正则化(对齐)比基于特征图的正则化更容易被优化。

  3. 参数β的影响:探讨了参数β对ASR和ACC的影响,越高攻击成功率越低,但是模型性能也会下降。

  4. 教师-学生组合的影响

图4:CIFAR-10上4种蒸馏组合的比较。B、B-F和C分别代表后门模型、微调后门模型和在干净子集上训练的模型。

  1. 教师选择的影响

图5:教师接受各种百分比的清洁CIFAR-10数据训练后的NAD表现。

  1. 不同教师架构的有效性
    表2:我们采用不同教师体系结构的NAD在CIFAR10上对抗不良网络的有效性。ASR:攻击成功率;ACC:干净的精确度。第一栏突出了教师和学生网络之间的架构差异。最好的结果是粗体

不足

以文章来看,并没有什么明显的不足之处。

阅读感想

这篇文章将注意力机制与知识蒸馏结合,在语义上消除后门,并且从多个角度探讨教师模型在不同架构、选择、不同注意力函数下的后门防御效果,因此可以引出不同的教师模型选择策略和优化策略(如注意力机制)可以提升蒸馏后门防御的效果,因此是否还有比注意力机制更优的策略和更好的教师模型是一个值得探讨的问题。

神经注意力蒸馏NAD相关推荐

  1. 激励反向传播的自上而下注意力神经模型

    (推荐一个我自己做的普法公众号,大可说法律,有法律方面咨询的可以关注) 激励反向传播的自上而下注意力神经模型 (IJCV2018) Top-Down Neural Attention by Excit ...

  2. Deep Reading | 从0到1再读注意力机制,此文必收藏!

    译者 | forencegan 编辑 | 琥珀 出品 | AI科技大本营(ID: rgznai100) [AI科技大本营导语]注意力机制(Attention)已经成为深度学习必学内容之一,无论是计算机 ...

  3. 神经网络中的「注意力」是什么?怎么用?

    来源:转载自公众号「雷克世界」微信号:ROBO_AI 编译:嗯~阿童木呀.多啦A亮 概要:神经网络中的注意力机制(Attention mechanisms),也被称为"神经注意力" ...

  4. 【科普】联邦知识蒸馏概述与思考

    关注公众号,发现CV技术之美 随着深度学习与大数据的进一步发展,效果好的模型往往有着较大的规模和复杂的结构,往往计算效率与资源使用方面开销很大,无法部署到一些边缘设备.移动终端或者嵌入式设备上.因此, ...

  5. Deepmind讲座:深度学习中的记忆和注意力 注意力机制发展史与详解

    DeepMind x UCL | Deep Learning Lectures | 8/12 | Attention and Memory in Deep Learning(机翻讲稿) 图片外链失效, ...

  6. 知识蒸馏相关技术【模型蒸馏、数据蒸馏】以ERNIE-Tiny为例

    1.任务简介 基于ERNIE预训练模型效果上达到业界领先,但是由于模型比较大,预测性能可能无法满足上线需求. 直接使用ERNIE-Tiny系列轻量模型fine-tune,效果可能不够理想.如果采用数据 ...

  7. 知识蒸馏Knownledge Distillation

    知识蒸馏源自Hinton et al.于2014年发表在NIPS的一篇文章:Distilling the Knowledge in a Neural Network. 1. 背景 一般情况下,我们在训 ...

  8. 多头自注意力机制脑电情绪识别:论文精读

    文章题目:EEG-Based Emotion Recognition Using Convolutional Recurrent Neural Network with Multi-Head Self ...

  9. 小议车辆环境视觉基础前视感知

    1. 前言 无论是AD/ADAS还是智能网联车,前视感知都是其最基础和重要的能力之一.自动驾驶(AD)是前几年的热门话题.今天虽然稍微降温下来一些,但仍是大家关注的重点之一,毕竟它是人类长久以来的梦想 ...

最新文章

  1. postgres语法_SQL Create Table解释了MySQL和Postgres的语法示例
  2. SaltStck 搭建Web集群运用示例 (一)
  3. 参考使用CSDN-markdown编辑器以及复杂表格编辑
  4. Set精讲(Java)·算法常用集合处理方法
  5. python版本切换_Ubuntu18.04下python版本完美切换的解决方法
  6. ibm+x3650+m4+linux+raid驱动,IBM X3650M4阵列卡驱动下载
  7. rust卡领地柜权限_RFID智能医疗耗材柜,上海智能高值耗材柜,国药智能医用耗材柜...
  8. leetcode 75
  9. opencv 直方图均等化
  10. mybatis多个foreach_mybatis的foreach 删除多条使用汇总
  11. 知识图谱、Gremlin Traversal Language、RDF、Amazon Nepture 图数据库介绍
  12. 斯皮尔曼相关(Spearman correlation)系数概述及其计算例
  13. nanomsg下载、安装、测试
  14. 从 flask 服务端代码自动生成客户端代码 -- flask-native-stubs 库介绍
  15. Hbase最新官方文档中文翻译与注解1-10|hbase简介与配置信息等
  16. C盘Temp文件夹的内容可以删掉
  17. Spring中如何操作JDBC
  18. 防屏蔽浏览器_国外lead/emu广告联盟平台/扫盲篇–UA,指纹浏览器与流量来路-VMLogin指纹浏览器介绍..
  19. JavaMail IMAPFolder.getMessageByUID 获取QQ和腾讯企业邮箱新邮件的问题
  20. 吃货程序猿怎么区分低热量食品

热门文章

  1. selenium爬取评论
  2. spark kafka directstream java.io.EOFException: Received -1 when reading from channel, socket has lik
  3. 交流电机是如何工作的
  4. 以色列初创企业Skyline AI获300万美元种子融资,红杉资本领投
  5. 海康萤石摄像头本地局域网拉流保存
  6. ODOO芯片制造委外加工业自动化解决方案
  7. 常见的网页布局解决方案
  8. 2019一键清空朋友圈_批量清理朋友圈说说
  9. 为什么要学习 Netty?
  10. 编辑出库单issue