来源:AI科技评论本文约3500字,建议阅读9分钟本文解读对抗攻击与元学习联姻的两篇典型的论文。

最近几年,元学习风生水起,这阵风也刮到了对抗攻击领域。本文解读对抗攻击与元学习联姻的两篇典型的论文(本文分为上下两篇,此为上篇),希望对后来的研究者有所启发。上篇为《Simulating Unknown Target Models for Query-Efficient Black-box Attacks》论文解读。

利用元学习,可以将黑盒攻击的查询复杂度降低几个数量级!CVPR 2021的《Simulating Unknown Target Models for Query-Efficient Black-box Attacks》这篇论文解决了模型窃取攻击中长久以来存在的一个问题:训练代理模型的时候需要查询目标模型,因此查询量仍然很大,而且更为严重的问题是这种攻击方式可以被轻易地检测和防御。所以本篇论文的工作目标是训练一个“模拟器”(即Simulator) 可以模拟任何未知模型的输出。为此,基于知识蒸馏的MSE损失函数被应用在元学习中的内部和外部更新来学习多种不同网络模型的输出。如此,一旦训练完成,模拟器只需要少量的查询数据微调(fine-tune) 就可以精确地模拟未知网络的输出,从而使大量的查询转移到模拟器上,有效降低攻击中目标模型的查询复杂度。

SimulatorAttack论文链接:

https://arxiv.org/abs/2009.00960

SimulatorAttack代码链接:

https://github.com/machanic/SimulatorAttack

在正式介绍模拟器攻击之前,我们先看看对抗攻击的分类。

本文介绍的方法对应于query-based attacks下的score-based setting。

1、元学习帝国的崛起:背景知识

元学习的诞生可以追溯到八十年代,当时的深度学习还没有如今的火热规模, Jürgen Schmidhuber在1987年的论文《Evolutionary principles in self-referential learning》一文中宣告了一种全新的机器学习方法的诞生:元学习。后来, Tom Schaul, Jürgen Schmidhuber俩人在2010年的论文《Metalearning》中更是确定了元学习的复兴。时间进入2012年,随着Hinton的深度学习崭露头角,元学习与强化学习更是借着深度学习的大潮,在各个领域扩展到了极致(例如人脸识别领域等,均可用元学习来加以强化cross domain的性能)。

典型的元学习技术包括以下几个概念:

Task:元学习通常将训练数据切分成一个个小的数据子集来训练meta-learner。“task”的意思与多任务学习的“task”不同,是指元学习训练所使用的数据子集。

Support set & query set:每个task分成support set 和query set两个子集。Support set对应于算法中的内部更新,query set对应于算法中的外部更新。在本论文中,support set被命名为meta-train set,query set被命名为meta-test set。

Way:是class(类别)的别称。

Shot:指的是每个类别的样本数量。例如:1-shot指的并不是一共只有一个数据样本,而是每个类有1个样本。

图1展示了一个典型的K-shot的元学习方法的一般套路,其训练阶段的数据和测试阶段的数据包含不同的类别,而训练的每个task又被切分成support set(又名meta-train set)和query set(又名meta-test set)。

图1 一个典型的元学习将数据切分成task训练,而每个task包含的5个分类不同,1-shot是指每个分类只有一个样本。

在测试的时候,元学习同样是在task上面测,每个task测出的准确率,汇总求和后求整体的均值。但是,值得注意的是,这种测试方法并不被本文中的模拟器攻击所采用,因为我们的目标是攻击,而非测试各个task的准确度!

图2 是一个典型的元学习方法(MAML)的算法流程,它学习每个task的时候先执行内部更新,再执行外部更新。内部更新学习support set的数据并用SGD将参数更新为。而外部更新利用作为网络参数,输入query set的数据,计算一个对求导的高阶梯度meta-gradient。这些meta-gradient最终被用于外部更新,去更新元学习器。

图2 MAML的训练流程,内部更新将初始化参数的更新为,而外部更新利用作为网络参数去计算loss,这个loss最后用来计算元梯度来外部更新。

2、元学习与对抗攻击的联姻

在ICLR2020的Meta Attack论文中,元学习与对抗攻击第一次结合。Meta Attack方法使用Reptile训练一个元学习器,这是一个典型的conv-deconv结构的auto-encoder。此auto-encoder学习不同网络的梯度数据来回归各种网络梯度。在攻击的时候,由于元学习器可以直接提供梯度输出,因此可以不用查询目标模型去估计梯度。然而如果图片分辨率较高,则梯度map是一个很大的矩阵,此时轻量级的auto-encoder就无法准确预测梯度map的梯度值。因此,Meta Attack采取了一种取巧的办法,它从梯度图选择最大梯度值的125个元素进行回归。但是这种做法在攻击高分辨率图片时仍显得心有余而力不足。(关于Meta Attack的详细分析见《Simulating Unknown Target Models for Query-Efficient Black-box Attacks》的related work一节。)于是,一种新的基于元学习的攻击方法便呼之欲出。

3、模拟器攻击

模拟器攻击(Simulator Attack)这篇论文致力于降低query-based attack的查询复杂度,因为假若攻击单个样本仅需要两位数的查询量时,该攻击便具有现实威胁。我们发现,任何黑盒模型都可以被一个相似的代理模型(即模拟器)所替代,如果能将一部分查询转移到这个模拟器上,那么真正的目标模型的查询压力便随之降低。为了做出这种模拟器,研究者们不断探索,诞生了被称为模型窃取攻击的办法,然而,模型窃取攻击需要在训练模拟器的时候大量查询目标模型。因此,这种攻击方式仍然会造成大量的查询,而且这种查询可以轻易地被目标模型的拥有者检测和防御。模拟器攻击首次解决了这个问题,Simulator在训练的阶段中没有与目标模型有任何交互,仅仅是攻击时花费少量的查询,便可以极大地节省攻击的查询量。总结一下,模拟器攻击在训练阶段时使用大量不同的现有模型生成的训练数据,并且将知识蒸馏损失函数应用在元学习中,这样在测试的时候就可以模拟任何未知的黑盒模型。

3.1 模拟器的训练

模拟器的训练流程开始之前,为了达到模拟任意黑盒模型的泛化能力,我们收集了大量不同的分类网络,如VGG-19、ResNet-50、MobileNet等来构建task,如此便建造了一个巨大的模拟环境。每个task中包含的数据是如下步骤生成得到:1.随机选择一个已训网络;2.施加Bandits攻击来攻击该网络产生的中间数据,数据包括攻击中产生的query sequence和与之对应的该网络的输出logits两种;3.query sequence按照query pair生成对应的迭代编号被切分成两部分:meta-train set和meta-test set。

图3 模拟器攻击的数据生成流程和训练过程

图3和算法1展示了模拟器攻击的训练过程。首先找一些真实图片作为输入,用黑盒攻击算法(Bandits)攻击一个随机选择的分类网络生成query sequence,这些query sequence都是攻击中间数据,被存储在硬盘上。另外除了query sequence,它们对应的那个分类网络的输出logits也被存储在硬盘上,被称为“伪标签”(即pseudo label)。生成好数据之后便是模拟器的训练过程了,其过程如下。

1.初始化。我们随机采样K个task组成一个mini-batch进行学习。在学习每个task之前,模拟器将其参数重新初始化为(由上一批更新得到的),这些权重在外部更新的时候还会再次使用,因此需要保存起来。

2.Meta-train。模拟器以meta-train set作为输入来进行内部更新,其内部更新过程是一个典型知识蒸馏:我们优化MSE损失函数来推动模拟器的输出与随机采样的分类网络一致,优化中采用SGD梯度下降若干次循环。这个过程对应于攻击阶段的微调过程。

3.Meta-test。在若干迭代次数之后,模拟器网络的参数收敛到。然后,损失函数值通过输入第i个task的meta-test set到网络而得到。之后,元梯度(meta-gradient) 计算得到。以上只是一个task得到的元梯度,K个task的所有元梯度被汇总并且求均值来更新模拟器(外部更新),由此模拟器可以学到泛化的模拟任意网络的能力。

4.损失函数。为了训练模拟器,损失函数必不可少。我们选择了基于知识蒸馏的损失函数来让模拟器与随机选择的分类网络输出一致。这个损失函数同时被用在内部和外部更新中。给定一个query pair 的两个query (由于Bandits攻击使用有限差分法去估计梯度,因此每次迭代生成一个query pair)。模拟器和随机选择的分类网络的logits输出分别记为。如下MSE损失函数将使得模拟器的输出和伪标签趋近于一致。

3.2 模拟器攻击

模拟器攻击的算法流程如算法2和图4所示,它沿袭了Bandits攻击的逻辑,值得注意的是第8行至第17行:在刚开始攻击的t个迭代内(warm-up阶段),query直接被输入到目标模型中,并且使用一个双端队列收集这些输入和输出。在warm-up之后的迭代中,每隔m次迭代才使用一次目标模型,其余迭代一律输入使用模拟器来输出。因此目标模型和模拟器的使用是轮流交替进行的,这种方法一方面保证了大部分查询压力被转移到模拟器中,另一方面保证了模拟器每隔m次迭代就得到机会fine-tune一次,这保证了后期的迭代中模拟器能“跟得上不断演化的query的节奏,及时与目标模型保持一致”。

图4 模拟器攻击。前t次迭代为warm-up阶段,收集输入图片和输出来fine-tune模拟器,后面m次迭代直接输入模拟器,减轻查询压力。

4、实验

我们在三个数据库上进行实验:CIFAR-10、CIFAR-100和TinyImageNet,其中CIFAR-10和CIFAR-100数据库上我们攻击PyramidNet-272、GDAS、WRN-28和WRN-40这四种网络,而TinyImageNet数据库上我们攻击ResNeXt-101 (32x4d)、ResNeXt-101 (64x4d)和DenseNet-121三种网络。

在targeted attack中,我们设置target label为原始(true label+1)%class_number。对比方法我们选择NES、RGF、P-RGF、Meta Attack和Bandits,其中Bandits被作为baseline。我们的方法设置参数可参见表1。

表1 模拟器攻击的默认参数设置

图5 Ablation Study

剥离实验的结果如图5所示。值得一看的是图5(b),它展示了不同的simulator-predict interval m设置下的untargeted和targeted attack的攻击结果,虽然越大的simulator-predict interval会造成越多的query被输入给模拟器,但是也意味着模拟器得到越少的机会被fine-tune,因此在targeted attack这种困难的攻击中很难达到较高的成功率。其他的结果的分析可详见原始论文。

表2 untargeted attack的CIFAR-10和CIFAR-100数据库的实验结果

表3 targeted attack的CIFAR-10和CIFAR-100数据库的结果

表4 范数下的untargeted attack攻击TinyImageNet的实验结果

表5 范数下的targeted attack攻击TinyImageNet的实验结果

图6 不同最大查询预算的限制下的成功率

表2-表5展示的10000次查询限制下实验结果,而不同的最大查询预算限制下的成功率见图6。可以得出结论:模拟器攻击相比于Bandits攻击和其他攻击,可以将查询复杂度降低几个数量级而不改变成功率!这一结果同样也显示在攻击防御模型的结果中(表6)。

表6 范数攻击防御模型的结果,所有防御模型皆选择ResNet-50 backbone

5、结论

“万物皆可模拟!”运用模拟器可以模仿各种未知网络的输出,甚至是训练过程中没见过的网络,这就是模拟器攻击这篇论文所展现出的强大能力。这篇论文确定了一种新的攻击形式:攻击者可以在获知目标模型的最少量的信息的情况下成功地伪造出相似的模型,即模拟器。在攻击时,这就可以将大量的查询转移到模拟器上,从而将查询复杂度显著降低而不过多地改变成功率!

编辑:于腾凯

校对:林亦霖

任何网络都能山寨!新型黑盒对抗攻击可模拟未知网络进行攻击 | CVPR 2021相关推荐

  1. 繁凡的对抗攻击论文精读(二)CVPR 2021 元学习训练模拟器进行超高效黑盒攻击(清华)

    点我轻松弄懂深度学习所有基础和各大主流研究方向入门综述! <繁凡的深度学习笔记>,包含深度学习基础和 TensorFlow2.0,PyTorch 详解,以及 CNN,RNN,GNN,AE, ...

  2. 《繁凡的论文精读》(一)CVPR 2019 基于决策的高效人脸识别黑盒对抗攻击(清华朱军)

    点我一文弄懂深度学习所有基础和各大主流研究方向! <繁凡的深度学习笔记>,包含深度学习基础和 TensorFlow2.0,PyTorch 详解,以及 CNN,RNN,GNN,AE,GAN, ...

  3. 繁凡的对抗攻击论文精读(三)ICLR2019 利用先验知识进行高效黑盒对抗攻击的 bandits 算法(MIT)

    点我轻松弄懂深度学习所有基础和各大主流研究方向入门综述! <繁凡的深度学习笔记>,包含深度学习基础和 TensorFlow2.0,PyTorch 详解,以及 CNN,RNN,GNN,AE, ...

  4. 孪生网络图像相似度_生成对抗网络的进步多大,请看此文

    全文共4175字,预计学习时长8分钟 最近,多项研究采用了生成对抗网络(Generative Adversarial Networks, 简称GANs)这一技术来生成分辨率为1024x1024的高清图 ...

  5. CVPR 2019 | 针对人脸识别系统的高效黑盒对抗攻击算法

    本工作提出了一种高效的基于决策的黑盒对抗攻击算法,在业内第一次以完全黑盒的方式成功地实现对人脸识别系统的对抗攻击.本工作由腾讯 AI Lab 主导,与清华大学,香港科技大学联合完成,发表于 CVPR ...

  6. 黑盒攻击很难?元学习提高黑盒对抗攻击成功率

    关注公众号,发现CV技术之美 本文分享论文『Boosting Black-Box Adversarial Attacks with Meta Learning』,元学习提高黑盒对抗攻击. 详细信息如下 ...

  7. 开始报名丨CCF C³-13@奇安信:透视俄乌网络战 —— 网络空间基础设施面临的安全对抗与制裁博弈...

    CCF C³活动第十三期主题:透视俄乌网络战--网络空间基础设施面临的安全对抗与制裁博弈,将于7月8日周五晚(18:00-21:30),在奇安信安全中心举行,名额有限,报名从速. 自俄乌军事冲突正式爆 ...

  8. 2020-4-22 深度学习笔记20 - 深度生成模型 5 (有向生成网络--sigmoid信念网络/可微生成器网络/变分自编码器VAE/生产对抗网络GAN/生成矩匹配网络)

    第二十章 深度生成模型 Deep Generative Models 中文 英文 2020-4-17 深度学习笔记20 - 深度生成模型 1 (玻尔兹曼机,受限玻尔兹曼机RBM) 2020-4-18 ...

  9. 图像对抗生成网络 GAN学习01:从头搭建最简单的GAN网络,利用神经网络生成手写体数字数据(tensorflow)

    图像对抗生成网络 GAN学习01:从头搭建最简单的GAN网络,利用神经网络生成手写体数字数据(tensorflow) 文章目录 图像对抗生成网络 GAN学习01:从头搭建最简单的GAN网络,利用神经网 ...

最新文章

  1. 新春快乐!数据派又双叒叕送福利啦~
  2. petapoco mysql_PetaPocoEfCoreMvc[持续更新]欢迎在github上star
  3. [Ajax]ajax学习与理解
  4. linux系统输入指令,详解linux系统输入输出管理和vim的常用功能
  5. jsp跨域访问cookies_cookie 跨域访问的解决方案
  6. iOS开发 -- 发送JSON数据给服务器
  7. 交换机芯片vlan管理
  8. 戴尔服务器改win7系统教程,新款戴尔win10改win7系统教程
  9. linux下容器find函数,你知道Linux系统中find命令的使用方法吗?
  10. (PTA)数据结构(作业)4、链表
  11. 讯飞语音--唤醒Demo
  12. 3种漂亮的登录表单页面css3+html5模板
  13. QQ群非管理员@所有人的方法
  14. 分析师入门常见错误 幸存者偏差,如何用匹配和加权法规避
  15. JAVA避免使用魔法数值
  16. Agent and recipient nouns
  17. 【STM32F407的DSP教程】第24章 DSP变换运算-傅里叶变换
  18. pf与ckf_CKF启用VR直播,暴风魔镜呈现格斗赛事“拳拳到肉”
  19. Redis数据类型——set
  20. GitHub上传自己的文件

热门文章

  1. Nginx允许跨域和禁止跨域操作
  2. MySQL · 性能优化· CloudDBA SQL优化建议之统计信息获取
  3. ORACLE OLAP错误ORA-06512: at SYS.OLAPIHISTORYRETENTION
  4. ebuild 中的软件包依赖
  5. mysql mairadb skysql
  6. js的Prototype属性 解释及常用方法
  7. TableLayout(表格布局)
  8. 在CISCO路由器上实现CHAP认证
  9. 用Python解“求整数段和”题
  10. css animation动画完成后隐藏_如何使用CSS实现旋转地球动画效果