目录

  • 1.对抗攻击背景知识
  • 2.白盒攻击技术
    • 2.1 基于直接优化得攻击方法
      • 2.1.1 基于 Box-constrained L-BFGS 的攻击
      • 2.1.2 C&W 攻击
    • 2.2 基于梯度优化的攻击方法
      • 2.2.1 FGSM 攻击(基于一步梯度计算的对抗样本生成算法)
      • 2.2.2 I-FGSM 攻击(迭代的FGSM算法)
      • 2.2.3 PGD攻击(迭代的 FGSM 算法,与 I-FGSM 攻击类似)
      • 2.2.4 MI-FGSM 攻击(基于动量的迭代生成对抗样本的 MI-FGSM 算法)
    • 2.3 基于决策边界分析的攻击方法
      • 2.3.1 DeepFool 攻击(针对单个输入图像生成对抗扰动的 DeepFool 攻击算法)
      • 2.3.2 UAPs 攻击(针对目标模型和整个数据集生成通用对抗扰动的 UAPs攻击算法)
    • 2.4 基于生成式神经网络生成的攻击方法
      • 2.4.1 ATN 攻击(利用生成式神经网络生成对抗样本的攻击)
      • 2.4.2 UAN 攻击(基于神经网络生成通用对抗扰动的攻击)
      • 2.4.3 AdvGAN 攻击
    • 2.5 其他的攻击方法
      • 2.5.1 JSMA 攻击
      • 2.5.2 单像素攻击
      • 2.5.3 stAdv 攻击
      • 2.5.4 BPDA 攻击
    • 对抗攻击算法总结

作者&编辑 | WYH、小风_

1.对抗攻击背景知识

在图像分类任务中,给定一个深度学习模型y=f(x)y=f(x)y=f(x), x∈Rmx \in \mathbf{R}^{\mathrm{m}}x∈Rm 为模型的输入,y∈Yy \in \ Yy∈ Y为针对当前输入xxx的模型输 出。模型 f(.)f (.)f(.) 一般还包含一组训练好的权重参数θ\thetaθ ,为方便说明,对模型描述时省略该参数。对抗攻击技术描述为在针对目标模型 f(.)f (.)f(.) 的输入xxx上寻找一个小的噪声数据 rrr ,当 rrr叠加在xxx上输入目标模型后,使得f(x+r)≠f(x)f(x+r) \neq f(x)f(x+r)​=f(x);在目标攻击中,使得 f(x+r)=ytf(x+r)=y^tf(x+r)=yt,yty^tyt为需要让模型输出的目标类目。

为了用 l2l_2l2​ 范数来约束扰动大小时,在目标攻击中,对抗样本的生成问题描述为如下的优化形式:
Minimize ∥r∥2s.t. 1. f(x+r)=yt2. x+r∈Rm\text { Minimize }\|r\|_{2} \\ \text { s.t. 1. } f(x+r)=y^{\mathrm{t}} \\ \text { 2. } x+r \in \mathbf{R}^{\mathrm{m}}  Minimize ∥r∥2​ s.t. 1. f(x+r)=yt 2. x+r∈Rm
yty^tyt是要攻击的目标类别,xxx是原始输入样本,rrr表示扰动噪声,x+rx+rx+r表示得到的对抗样本,后文也用xAx^AxA表示.

2.白盒攻击技术

2.1 基于直接优化得攻击方法

特点: 这类攻击方法通过算法对目标函数直接优化生成的对抗扰动相对较小,但存在优化时间长, 算法需花费大量时间寻找合适超参数的问题。

2.1.1 基于 Box-constrained L-BFGS 的攻击

原理: 利用拉格朗日松弛法将其中的f(x+r)=ytf(x+r)=y^{\mathrm{t}}f(x+r)=yt限制条件简化为loss⁡f(x+r,yt)\operatorname{loss}_{f}\left(x+r, y^{\mathrm{t}}\right)lossf​(x+r,yt)进行优化,loss⁡f\operatorname{loss}_{f}lossf​表示交叉熵损失函数。最终得到的优化目标如下:
Minimizec∥r∥2+loss⁡f(x+r,yt)s.t. x+r∈[0,1]mMinimize c\|r\|_{2}+\operatorname{loss}_{f}\left(x+r, y^{\mathrm{t}}\right)\\ \text { s.t. } x+r \in[0,1]^{\mathrm{m}} Minimizec∥r∥2​+lossf​(x+r,yt) s.t. x+r∈[0,1]m
其中,输入图像被归一化在[0,1] 之间,以满足凸优化方法中的箱型约束条件,使得上述目标可以利用 L-BFGS 算法进行求解。

求解思路: 该算法为目标攻击算法,使用该算法求 解的思路是先固定超参数 c 来优化当前参数值下的最优解, 再通过对 c 进行线性搜索即可找到满足f(x+r)=ytf(x+r)=y^{\mathrm{t}} f(x+r)=yt 条件的 最优对抗扰动 rrr ,最终得到的对抗样本为x+rx+rx+r。

特点: 是最早被设计的对抗攻击算法,该算法首次将生成对抗样本的过程抽象为一个凸优化的问题处理,是重要的基于优化方法的对抗攻击算法。

2.1.2 C&W 攻击

特点: 该攻击算法可以使 用l0l_0l0​,l2l_2l2​,l∞l_\inftyl∞​范数分别对扰动进行限制生成对抗样本,是目前较为强大的目标攻击算法之一。属于直接优化的攻击算法,是基于基于 Box-constrained L-BFGS 算法的改进版。

  • 改进1: C&W 攻击算法考虑了攻击目标类和其他类别之间的关系,选择了更好的损失函数:
    loss⁡f,t(xA)=max⁡(max⁡{Z(xA)i:i≠t}−Z(xA)t,−k)\operatorname{loss}_{f, t}\left(x^{\mathrm{A}}\right)= \max \left(\max \left\{Z\left(x^{\mathrm{A}}\right)_{i}: i \neq t\right\}-Z\left(x^{\mathrm{A}}\right)_{t},-k\right) lossf,t​(xA)=max(max{Z(xA)i​:i​=t}−Z(xA)t​,−k)
    其中,Z(xA)=Logits⁡(xA)Z\left(x^{\mathrm{A}}\right)=\operatorname{Logits}\left(x^{\mathrm{A}}\right)Z(xA)=Logits(xA)表示目标网络 Softmax 前一 层的输出,i 表示标签类别,t 表示目标攻击的标签类,k 表示对抗样本的攻击成功率, k 越大,生成的对抗样本的攻击成功率越高。

  • 改进2: 去除了上式中的 Box-constrained 限定条件,使该优化问题转化为无约束的凸优化问题,方便利用梯度下降法,动量梯度下降法和 Adam等算法求解。为实现该目的,提供两种有效的方法:

    • 采用投影梯度下降法的思路将每次迭代过程中得到的x+rx+rx+r裁剪在[0,1]m[0,1]^{\mathrm{m}}[0,1]m范围内,以去除x+rx+rx+r的区间约束条件。

      • 优点:生成的对抗样本攻击能力较强

      • 缺点:引入变量进行优化的方法生成的对抗扰动较小,对x+r行裁剪时会带来梯度信息的损失

    • 引入新的变量ω\omegaω ,令ω∈[−∞,+∞]\omega \in[-\infty,+\infty]ω∈[−∞,+∞] 区间,构造一个映射函数将ω\omegaω 从[−∞,+∞][-\infty,+\infty][−∞,+∞]区间映射到 [0,1] 区 间 , 通过优化ω\omegaω 去 掉 方 法 ① 中 由x+r∈[0,1]mx+r \in[0,1]^{\mathrm{m}}x+r∈[0,1]m 条件引起的优化误差。

  • 在优化算法的选择上,梯度下降,动量梯度下降和 Adam 等优化方法都可以生成相同质量的对抗样本,但 Adam 算法的收敛速度要比其他两种快。

优点: 能够生成对蒸馏防御网络具有较好攻击能力的对抗样本。C&W 攻击算法生成的对抗样本针对蒸馏防御的模型攻击能力很好,是目前较为强大的白盒攻击算法,也是用于评估模型鲁棒性的主要测试算法之一。

2.2 基于梯度优化的攻击方法

核心思想: 在模型损失函数变化的方向上对输入样本进行扰动,来使模型误分类输入样本或使模型分类输样本到指定的不正确目标类别上。

优点: 这类攻击方法的优点是方法实现简单,且白盒对抗攻击成功率较高。是目前一种主要的对抗攻击技术。

2.2.1 FGSM 攻击(基于一步梯度计算的对抗样本生成算法)

原理:使对抗扰动的变化量与模型损失梯度变化的方向保持一致。具体来说,在无目标攻击中,使模型损失函数关于输入 x 的梯度在上升的方向上变化扰动达到让模型误分类的效果。

算法描述: FGSM 算法描述为:
xA=x+αsign⁡(∇xJ(θ,x,y))x^{\mathrm{A}}=x+\alpha \operatorname{sign}\left(\nabla_{x} J(\theta, x, y)\right) xA=x+αsign(∇x​J(θ,x,y))
其中为α\alphaα超参数,表示为一步梯度的步长, sign(.) 为符 号函数,故该方法生成的扰动为在 l∞l_{\infty}l∞​范数约束下的对抗扰动。

优点: 生成的对抗样本具有较好的迁移攻击能力,且这项工作意义深远,后来出现的基于梯度优化的大部分攻击算法是FGSM 算法的变种。

缺点: 由于只计算一次梯度,其攻击能力有限,并且该方法成功应用的前提条件是损失函数的梯度变化方向在局部区间内是线性的。在非线性的优化区间内,沿着梯度变化方向进行大步长优化生成的对抗样本并不能保证攻击成功。

2.2.2 I-FGSM 攻击(迭代的FGSM算法)

原理: 提出迭代的FGSM算法,通过把优化区间变小来使线性假设近似成立。

算法描述: I-FGSM 算法的无目标攻击描述为:
x0A=x,xi+1A=Clip⁡(xiA+αsign⁡(∇xJ(θ,xiA,y)))x_{0}^{\mathrm{A}}=x, x_{i+1}^{\mathrm{A}}=\operatorname{Clip}\left(x_{i}^{\mathrm{A}}+\alpha \operatorname{sign}\left(\nabla_{x} J\left(\theta, x_{i}^{\mathrm{A}}, y\right)\right)\right) x0A​=x,xi+1A​=Clip(xiA​+αsign(∇x​J(θ,xiA​,y)))
其中xi+1Ax_{i+1}^{\mathrm{A}}xi+1A​为第 i 次迭代后得到的对抗样本,为超α\alphaα参数,表示为迭代过程中每步梯度的步长,操Clip⁡(.)\operatorname{Clip}(.)Clip(.)作把超过合法范围的xAx^{\mathrm{A}}xA裁剪在规定的范围内。

优点: 较 FGSM 算法生成的对抗样本攻击能力更强

缺点: 其生成的对抗样本迁移攻击能力却不如 FGSM 算法

2.2.3 PGD攻击(迭代的 FGSM 算法,与 I-FGSM 攻击类似)

原理: 与 I-FGSM 算法相比,PGD 算法的迭代次数更多,在迭代过程中对上一版本得到的xAx^{\mathrm{A}}xA随机地进行了噪声初始化,以此避免优化过程中可能遇到的鞍点。

优点:是目前公认为最强的白盒攻击方法,也是用于评估模型鲁棒性的基准测试算法之一。使用 PGD 算法生成的对抗样本攻击能力比 I-FGSM 攻击能力强

缺点: 同样具有的迁移攻击能力弱的问题

2.2.4 MI-FGSM 攻击(基于动量的迭代生成对抗样本的 MI-FGSM 算法)

原理: 在 I-FGSM 算法 的迭代过程中引入动量技术,以此在损失梯度变化的方向上累计速度矢量以稳定梯度的更新方向,使得优化过程不容易陷入局部最优。

算法描述: 该算法描述为:
gi+1=μgi+∇xJ(xiA,y)∥∇xJ(xiA,y)∥1xi+1A=xiA+αsign⁡(gi+1)g_{i+1} = \mu g_{i}+\frac{\nabla_{x} J\left(x_{i}^{\mathrm{A}}, y\right)}{\left\|\nabla_{x} J\left(x_{i}^{\mathrm{A}}, y\right)\right\|_{1}} \\ x_{i+1}^{\mathrm{A}}=x_{i}^{\mathrm{A}}+\alpha \operatorname{sign}\left(g_{i+1}\right) gi+1​=μgi​+∥∥​∇x​J(xiA​,y)∥∥​1​∇x​J(xiA​,y)​xi+1A​=xiA​+αsign(gi+1​)
其中,gi+1g_{i+1}gi+1​表示在第 i 次迭代后累计的梯度动量, μ\muμ为动量项的衰减因子;当μ\muμ= 0 ,则上述形式为 I-FGSM 算法的形式。由于多次迭代中得到的梯度不在一个量级,将每次迭代中得到的当前梯度 ∇xJ(xiA,y)\nabla_{x} J\left(x_{i}^{\mathrm{A}}, y\right)∇x​J(xiA​,y)通过其自身的l1l_{1}l1​距离进行归一化。

优点: 在具有较好攻击能力的基础上还保留了一定的迁移攻击能力,是目前常用的白盒对抗攻击方法。

2.3 基于决策边界分析的攻击方法

核心思想: 是一类特殊的对抗攻击方法。通过逐步减小样本与模型决策边界的距离来使模型对该样本误分类,故其生成的对抗样本一般较小,但这类攻击方法不具备目标攻击能力。

2.3.1 DeepFool 攻击(针对单个输入图像生成对抗扰动的 DeepFool 攻击算法)

特点: DeepFool 算法生成的对抗扰动非常小,该扰动一般被认为近似于最小扰动。

算法描述:

  • 针对线性二分类问题,给定一个分类器k^(x)=sign⁡(f(x)),f(x)=ωx+b\hat{k}(x)=\operatorname{sign}(f(x)), \quad f(x)=\omega x+bk^(x)=sign(f(x)),f(x)=ωx+b,分类器的决策边界用

F={x:f(x)=0}F=\{x: f(x)=0\}F={x:f(x)=0}表示,如下图。要使当前数据点x0被该模型误分类到决策边界另一边,其最小扰动对于于x0x_0x0​在F上的正交投影r∗(x0)r_{*}\left(x_{0}\right)r∗​(x0​):r∗(x0)≡arg⁡min⁡r∥r∥2r_{*}\left(x_{0}\right) \equiv \underset{r}{\arg \min }\|r\|_{2}r∗​(x0​)≡rargmin​∥r∥2​,根据f(x)=ωx+bf(x)=\omega x+bf(x)=ωx+b,推导出r∗(x0)=−f(x0)∥x0∥22ωr_{*}\left(x_{0}\right)=-\frac{f\left(x_{0}\right)}{\left\|x_{0}\right\|_{2}^{2}} \omegar∗​(x0​)=−∥x0​∥22​f(x0​)​ω,此为模型决策边界线性时计算得到的最小扰动值。

  • 针对非线性二分类问题,可通过迭代的过程来近似得到针对数据点x0 的最小扰动r∗(x0)r_{*}\left(x_{0}\right)r∗​(x0​) 。

2.3.2 UAPs 攻击(针对目标模型和整个数据集生成通用对抗扰动的 UAPs攻击算法)

原理: Moosavi-Dezfooli 等发现深度学习模型存在与输入样本无关的通用对抗扰动,这种扰动与目标模型结构和数据集特征相关。当通用对抗扰动叠加在数据集的输入样本上时得到对抗样本,得到的对抗样本大部分具有攻击能力。

算法描述: UAPs 攻击算法通过在采样的少量数据点上迭代计算生成通用对抗扰动。UAPs 攻击算法在迭代过程中的扰动计算使DeepFool 算法进行求解。最终,经过多次迭代后通过将数据点推送到模型决策边界另一边,达到对抗攻击的目的。

2.4 基于生成式神经网络生成的攻击方法

特点: 基于生成式神经网络生成的攻击方法利用自监督的方式,通过训练生成式神经网络来生成对抗样本。这类攻击方法的特点是一旦生成式模型训练完成,可非常高效的生成大量具有良好迁移攻击能力的对抗样本。

2.4.1 ATN 攻击(利用生成式神经网络生成对抗样本的攻击)

算法描述: ATN网络将一个输入样本转换为针对目标模型的对抗样本,ATN网络定义如下:gf,θ(x):x∈X→xAg_{f, \theta}(x): x \in X \rightarrow x^{\mathrm{A}}gf,θ​(x):x∈X→xA,其中θ\thetaθ表示神经网络ggg的参数,fff表示要攻击的目标网络。针对目标攻击问题,对 ATN 网络 g的训练,可描述为如下的优化目标:
arg⁡min⁡θ∑xi∈xβLX(gf,θ(xi),xi)+LY(f(gf,θ(xi)),f(xi))\underset{\theta}{\arg \min } \sum_{x_{i} \in x} \beta L_{X}\left(g_{f, \theta}\left(x_{i}\right), x_{i}\right)+L_{Y}\left(f\left(g_{f, \theta}\left(x_{i}\right)\right), f\left(x_{i}\right)\right) θargmin​xi​∈x∑​βLX​(gf,θ​(xi​),xi​)+LY​(f(gf,θ​(xi​)),f(xi​))
其中,LXL_XLX​为视觉损失函数,可用常见的l2l_2l2​范数表示;LYL_YLY​为类别损失函数,定义为LY=L2(y′,r(y,t))L_{Y}=L_{2}\left(y^{\prime}, r(y, t)\right)LY​=L2​(y′,r(y,t)),其中y=f(x)y=f(x)y=f(x),y′=f(gf(x))y'=f(g_f(x))y′=f(gf​(x)),ttt是目标攻击的类别,r(.)r(.)r(.)是重新排序函数,它对x进行修改,使yk<yt,∀k≠ty_{k}<y_{t}, \forall k \neq tyk​<yt​,∀k​=t

优点: 该方法生成对抗样本的速度较快,且其攻击能力较强

缺点: 迁移攻击能力较弱

2.4.2 UAN 攻击(基于神经网络生成通用对抗扰动的攻击)

原理: UAN 攻击通过训练一个简单的反卷积神经网络将一个在自然分布N(0,1)100N(0,1)^{100}N(0,1)100上采样的随机噪声转换为通用对抗扰动。

算法描述: Hayes等为反卷积神经网络的训练设计了如下优化函数:
Lt=max⁡{{max⁡i≠y′log⁡[f(δ′+x)]i−log⁡[f(δ′+x)]i,−k}+α∥δ′∥p\begin{aligned} L_{t}=\max \{&\left\{\max _{i \neq y^{\prime}} \log \left[f\left(\delta^{\prime}+x\right)\right]_{i}-\right.\left.\log \left[f\left(\delta^{\prime}+x\right)\right]_{i},-k\right\}+\alpha\left\|\delta^{\prime}\right\|_{p} \end{aligned} Lt​=max{​{i​=y′max​log[f(δ′+x)]i​−log[f(δ′+x)]i​,−k}+α∥δ′∥p​​
其中,模型损失函数选择了与 C&W 攻击相同的边际损失函数,yTy^TyT为目标攻击选择的类别,α\alphaα控制扰动大小优化项的相对重要程度。

优点: 在实际利用 UAN 攻击方式进行攻击时,使用l2l_2l2​或 l∞l_\inftyl∞​范数均可生成攻击能力较好的通用对抗扰动,其攻击能力强于先前提出UAPs 攻击。

2.4.3 AdvGAN 攻击

原理: Xiao 等在基于神经网络生成的攻击算法中首次引入 了生成式对抗网络的思想,提出了包含生成器、鉴别器和 攻击目标模型的AdvGAN 攻击网络。AdvGAN 网络利用生成式对抗网络中的“对抗损失”项,来保证对抗样本的真实性。

算法描述: 针对 AdvGAN 网络训练的整体优化函数设计如下:
L=Ladv f+αLGAN+βLhinge \mathcal{L}=\mathcal{L}_{\text {adv }}^{\mathrm{f}}+\alpha \mathcal{L}_{\mathrm{GAN}}+\beta \mathcal{L}_{\text {hinge }} L=Ladv f​+αLGAN​+βLhinge ​
α\alphaα和β\betaβ 参数用来控制每个优化项的相对重要性,整体来说, LGAN\mathcal{L}_{\mathrm{GAN}}LGAN​ 损失项的目的是使生成的对抗扰动与原始样本相似,Ladv\mathcal{L}_{\mathrm{adv}}Ladv​ 损失项的目的是达到对抗攻击的效果。

优点: 经过训练的AdvGAN网络可以将随机噪声转换成有效的对抗样本,如下图。

2.5 其他的攻击方法

2.5.1 JSMA 攻击

类型: JSMA攻击是一种基于l0l_0l0​范数约束下的攻击,其通过修改图像中的几个像素来使模型对输入样本误分类。

原理: JSMA 攻击算法利用显著图表示输入特征对预测结果的影响程度,其每次修改一个干净图像的像素,然后计算模型最后一层的输出对输入的每个特征的偏导。通过得到的前向导数,计算得出显著图。最后利用显著图找到对模型输出影响程度最大的输入特征,通过修改这些对输出影响程度较大的特征点从而得到有效的对抗样本。

2.5.2 单像素攻击

类型: 单像素攻击是一种基于差分进化算法的攻击算法。

原理: 单像素攻击算法每次只修改样本数据点的 1 个像素值试图让模型误分类。

特点: 实际应用中,这是一种极端的攻击方式。该方法对于简单的数据集有较好的攻击效果,比如 MNIST 数据集。当输入图像的像素空间较大时,1 个像素点的改变很难影响到分类结果,随着图像增大,算法的搜索空间也会迅速增大,使得算法性能下降。

2.5.3 stAdv 攻击

类型: 一种通过对图像样本进行空域变换来 产生对抗样本的 stAdv攻击算法

原理: 该算法对局部图像特征进行平移,扭曲等操作实现针对输入样本的空域变换攻击。

特点: 使用 stAdv 算法生成的对抗样本较于传统基于 lpl_plp​ 范数距离度量生成的对抗样本更为真实,且针对目前采用对抗训练措施的模型具有很好的攻击效果。

2.5.4 BPDA 攻击

类型: 破碎梯度策略是一种用来针对 FGSM,I-FGSM等基于梯度攻击方法的对抗防御方法。

原理: 破碎梯度策略使用一个不可微的函数$ g(x) 预处理输入样本,使训练得到的模型预处理输入样本,使训练得到的模型预处理输入样本,使训练得到的模型f(g(x))$ 在 xxx 上不可微,使得攻击者计算不出用于对抗样本生成的梯度。

对抗攻击算法总结

攻击算法 扰动范数 攻击类型 攻击强度 算法优势 算法劣势
L-BFGS l2l_2l2​ 单步 ⭐⭐⭐ 对抗样本有良好的迁移攻击能力,是第一 个提出的对抗攻击算法 算法需要花费大量时间优化超参数 c
C&W l2,l∞l_2,l_∞l2​,l∞​ 迭代 ⭐⭐⭐⭐ 针对大部分蒸馏防御模型的攻击能力强且生成的扰动小 算法攻击效率低,需耗时寻找合适 的超参数
FGSM l∞l_∞l∞​ 单步 ⭐⭐⭐ 生成效率非常高且扰动具有良好的迁移攻击能力 计算一次梯度生成对抗样本,对抗 样本的扰动强度较大
I-FGSM l∞l_∞l∞​ 迭代 ⭐⭐⭐⭐ 多步迭代生成对抗样本,攻击能力强 容易过拟合,迁移攻击能力较差
PGD l∞l_∞l∞​ 迭代 ⭐⭐⭐⭐⭐ 比 I-FGSM 算法的攻击能力强 迁移攻击能力较差
MI-FGSM l∞l_∞l∞​ 迭代 ⭐⭐⭐⭐ 兼具较好的攻击能力和迁移攻击能力,算法收敛速度更快 攻击能力比 PGD 算法差
DeepFool l2,l∞l_2,l_∞l2​,l∞​ 迭代 ⭐⭐⭐⭐ 精确计算得到的扰动更小 不具备目标攻击能力
UAPs l2,l∞l_2,l_∞l2​,l∞​ 迭代 ⭐⭐⭐⭐ 生成的通用对抗扰动具有较好的迁移攻击能力 无法保证对特定数据点的攻击成功 率
ATN l∞l_∞l∞​ 迭代 ⭐⭐⭐⭐ 可同时针对多个目标模型进行攻击,对抗 样本更具多样性 训练生成网络寻找合适的超参数
UAN l2,l∞l_2,l_∞l2​,l∞​ 迭代 ⭐⭐⭐⭐ 生成扰动的速度快且攻击能力强于 UAPs算法 生成模型的训练需花费一定时间
AdvGAN l2l_2l2​ 迭代 ⭐⭐⭐⭐ 生成的对抗样本在视觉上与真实样本非常 相似 对抗训练过程不稳定
JSMA l0l_0l0​ 迭代 ⭐⭐⭐ 生成的对抗样本与真实样本相似度高 生成的对抗样本不具备迁移攻击能 力
单像素攻击 l0l_0l0​ 迭代 ⭐⭐ 可仅修改一个像素点进行攻击 计算量大,仅适用于尺寸较小的数 据集
stAdv - 迭代 ⭐⭐⭐ 针对对抗训练防御有较好的攻击效果 只针对特定防御策略的模型攻击效 果好
BPDA l∞l_∞l∞​ 迭代 ⭐⭐⭐ 可有效针对混淆梯度防御的模型进行攻击 只针对混淆梯度的防御进行攻击

参考:《图像分类中的白盒对抗攻击技术综述_魏佳璇》

图像分类白盒对抗攻击技术总结相关推荐

  1. 【图像分类】 图像分类中的对抗攻击是怎么回事?

    欢迎大家来到图像分类专栏,深度学习分类模型虽然性能强大,但是也常常会因为受到小的干扰而性能崩溃,对抗攻击就是专门研究如何提高网络模型鲁棒性的方法,本文简要介绍相关内容. 作者&编辑 | 郭冰洋 ...

  2. 黑盒攻击的分类_「图像分类」图像分类中的对抗攻击是怎么回事?

    欢迎大家来到图像分类专栏,深度学习分类模型虽然性能强大,但是也常常会因为受到小的干扰而性能崩溃,对抗攻击就是专门研究如何提高网络模型鲁棒性的方法,本文简要介绍相关内容. 作者 | 郭冰洋 编辑 | 言 ...

  3. 阿里箫疯:AI对抗攻击—原理及预防 (精彩直播回放)

    近期,CVPR 2021 安全AI挑战者大赛正在进行中 (报名截止3月24日),相关技术解析: 1. CVPR 2021大赛, 安全AI 之防御模型的「白盒对抗攻击」解析 2. 还在刷榜ImageNe ...

  4. 移动測试技术保护源码!解码全球首款移动端白盒測试工具ThreadingTest (文章转自己主动点科技)...

    作者 智晓锋 - 2014/07/14 自从斯诺登曝光美监听丑闻事件之后,我国政府就将信息安全问题上升到了国家安全的高度.基于此.国内的一家创业公司推出了智能型Android真机白盒測试以及开发辅助类 ...

  5. 繁凡的对抗攻击论文精读(三)ICLR2019 利用先验知识进行高效黑盒对抗攻击的 bandits 算法(MIT)

    点我轻松弄懂深度学习所有基础和各大主流研究方向入门综述! <繁凡的深度学习笔记>,包含深度学习基础和 TensorFlow2.0,PyTorch 详解,以及 CNN,RNN,GNN,AE, ...

  6. 对抗攻击Adversarial Attack

    参考链接: (1)对抗攻击常见方法汇总 https://blog.csdn.net/qq_43367558/article/details/121694626 (2)对抗性样本攻击方法汇总 https ...

  7. [当人工智能遇上安全] 1.人工智能真的安全吗?浙大团队外滩大会分享AI对抗样本技术

    您或许知道,作者后续分享网络安全的文章会越来越少.但如果您想学习人工智能和安全结合的应用,您就有福利了,作者将重新打造一个<当人工智能遇上安全>系列博客,详细介绍人工智能与安全相关的论文. ...

  8. [论文阅读] (04) 人工智能真的安全吗?浙大团队外滩大会分享AI对抗样本技术

    外滩大会 AI安全-智能时代的攻守道 Deep Learning Security: From the NLP Perspective 浙江大学 <秀璋带你读论文>系列主要是督促自己阅读优 ...

  9. 什么是对抗样本、对抗攻击(详解)

    1.对抗样本 所谓对抗样本就是指:在原始样本添加一些人眼无法察觉的扰动(这样的扰动不会影响人类的识别,但是却很容易愚弄模型),致使机器做出错误的判断. 如下所示,这两张图片添加噪声(或者说扰动之后)被 ...

最新文章

  1. Eclipse如何打开一个现有工程
  2. hibernate中session接口方法总结
  3. Server Error in '/' Application. 报错
  4. SD功能增强业务说明书
  5. 水木-机器学习推荐论文和书籍
  6. Spring+Redis整合
  7. lenos快速开发脚手架
  8. phpcms内容页 ( $inputtime ) 去掉发布时间的时分秒 - 代码篇
  9. 在互联网行业呆了这么多年
  10. c语言不用switch做计算器,求助这个题目~不用switch语句用多重if 或者嵌套if的做法...
  11. unity3d Realistic eye shading 真实的眼睛渲染
  12. uva 10098(全排列)
  13. 微信小程序实现一行滑动显示很多文字--scroll-view
  14. android点赞取消赞功能吗,Android 仿微博的点赞上报功能,持续点赞再取消
  15. BeagleBone Black 打开CAN总线
  16. Linux下GUI开发:GTK+ 2.0 + anjuta + glade
  17. 为什么iPhone手机微信信息老是出现延误?原来是这5大原因搞的鬼
  18. 计算几何-求球冠体积
  19. Python 与金融科技5|批量抓取并保存上证50的交易数据
  20. PM2入门及其常用命令

热门文章

  1. qemu 下运行lk
  2. Whistle 抓包简易教程
  3. 游戏建模大佬教你九招轻轻松松学会三维动画制作绑定技术!
  4. 篮球队编程题(Java)
  5. QT使用多国语言及linguist工具使用
  6. HTTPServerMock从手工到平台的演变
  7. WoIf TCP/IP 学习的笔记
  8. 计算机网络通信基础 概述
  9. 案例 | 看某国有大行如何构建内部数据安全风险管控核心能力
  10. 软件测试的行业现状,我们的未来在哪里?