文章目录

  • 主要内容
    • 二分类模型
      • fff为线性
      • fff为一般二分类
    • 多分类问题
      • fff仿射
      • fff为一般多分类
      • lpl_plp​

Moosavidezfooli S, Fawzi A, Frossard P, et al. DeepFool: A Simple and Accurate Method to Fool Deep Neural Networks[C]. computer vision and pattern recognition, 2016: 2574-2582.

@article{moosavidezfooli2016deepfool:,
title={DeepFool: A Simple and Accurate Method to Fool Deep Neural Networks},
author={Moosavidezfooli, Seyedmohsen and Fawzi, Alhussein and Frossard, Pascal},
pages={2574–2582},
year={2016}}

本文从几何角度介绍了一种简单而有效的方法.

主要内容

adversarial的目的:
Δ(x;k^):=min⁡r∥r∥2subjecttok^(x+r)≠k^(x),(1)\tag{1} \Delta(x;\hat{k}):= \min_{r} \|r\|_2 \: \mathrm{subject} \: \mathrm{to} \: \hat{k}(x+r) \not = \hat{k}(x), Δ(x;k^):=rmin​∥r∥2​subjecttok^(x+r)​=k^(x),(1)
其中k^(x)\hat{k}(x)k^(x)为对xxx的标签的一个估计.

二分类模型

当模型是一个二分类模型时,
k^(x)=sign(f(x)),\hat{k}(x) = \mathrm{sign}(f(x)), k^(x)=sign(f(x)),
其中f:Rn→Rf:\mathbb{R}^n \rightarrow \mathbb{R}f:Rn→R为分类器, 并记F:={x:f(x)=0}\mathcal{F}:= \{x: f(x)=0\}F:={x:f(x)=0}为分类边界.

fff为线性

即f(x)=wTx+bf(x)=w^Tx+bf(x)=wTx+b:

假设x0x_0x0​在f(x)>0f(x)>0f(x)>0一侧, 则
r∗(x0)=−f(x0)∥w∥22w.r_*(x_0)= -\frac{f(x_0)}{\|w\|_2^2}w. r∗​(x0​)=−∥w∥22​f(x0​)​w.

fff为一般二分类

此时, 我们fff的一阶近似为
f(x0+r)≈f(x0)+∇Tf(x0)r,f(x_0+r)\approx f(x_0)+\nabla^T f(x_0) r, f(x0​+r)≈f(x0​)+∇Tf(x0​)r,
此时分类边界为F={x:f(x0)+∇Tf(x0)(x−x0)=0}\mathcal{F} =\{x:f(x_0)+\nabla^T f(x_0) (x-x_0)=0\}F={x:f(x0​)+∇Tf(x0​)(x−x0​)=0},此时w=∇f(x0),b=f(x0),w=\nabla f(x_0),b=f(x_0),w=∇f(x0​),b=f(x0​), 故
r∗(x0)≈−f(x0)∥∇f(x0)∥22∇f(x0).(4)\tag{4} r_*(x_0) \approx -\frac{f(x_0)}{\|\nabla f(x_0)\|_2^2} \nabla f(x_0). r∗​(x0​)≈−∥∇f(x0​)∥22​f(x0​)​∇f(x0​).(4)

所以, 每次
ri=−f(xi)∥∇f(xi)∥22∇f(xi),xi+1=xi+ri,r_i = -\frac{f(x_i)}{\|\nabla f(x_i)\|_2^2} \nabla f(x_i), \\ x_{i+1} = x_i+r_i, ri​=−∥∇f(xi​)∥22​f(xi​)​∇f(xi​),xi+1​=xi​+ri​,
直到k^(xi)≠k^(x0)\hat{k}(x_i) \not= \hat{k}(x_0)k^(xi​)​=k^(x0​)是停止, 算法如下

多分类问题

f:Rn→Rcf:\mathbb{R}^n \rightarrow \mathbb{R}^cf:Rn→Rc, 此时
k^(x)=arg⁡max⁡kfk(x).(5)\tag{5} \hat{k}(x) = \arg \max_k f_k(x). k^(x)=argkmax​fk​(x).(5)

fff仿射

即f(x)=WTx+bf(x) = W^Tx + bf(x)=WTx+b, 设WWW的第kkk行为wkw_kwk​,
P=∩k=1c{x:fk^(x0)(x)≥fk(x)},(7)\tag{7} P=\cap_{k=1}^c \{x: f_{\hat{k}(x_0)}(x) \ge f_k(x)\}, P=∩k=1c​{x:fk^(x0​)​(x)≥fk​(x)},(7)
为判定为k^(x0)\hat{k}(x_0)k^(x0​)的区域, 则x+rx+rx+r应落在PcP^{c}Pc, 而
Δ(x0;f)=dist(x0,Pc).\Delta (x_0;f)= \mathbf{dist} (x_0, P^c). Δ(x0​;f)=dist(x0​,Pc).
当fff为仿射的时候, 实际上就是找x0x_0x0​到各分类边界(与x0x_0x0​有关的)最短距离,
l^(x0)=arg⁡min⁡k≠k^(x0)∣fk(x0)−fk^(x0)(x0)∣∥wk−wk^(x0)∥2,(8)\tag{8} \hat{l}(x_0) = \arg \min _{k \not = \hat{k}(x_0)} \frac{|f_k(x_0) - f_{\hat{k}(x_0)}(x_0)|}{\|w_k-w_{\hat{k}(x_0)}\|_2}, l^(x0​)=argk​=k^(x0​)min​∥wk​−wk^(x0​)​∥2​∣fk​(x0​)−fk^(x0​)​(x0​)∣​,(8)

r∗(x0)=∣fl^(x0)(x0)−fk^(x0)(x0)∣∥wl^(x0)−wk^(x0)∥22(wl^(x0)−wk^(x0)),(9)\tag{9} r_*(x_0)= \frac{|f_{\hat{l}(x_0)}(x_0) - f_{\hat{k}(x_0)}(x_0)|}{\|w_{\hat{l}(x_0)}-w_{\hat{k}(x_0)}\|_2^2}(w_{\hat{l}(x_0)}-w_{\hat{k}(x_0)}), r∗​(x0​)=∥wl^(x0​)​−wk^(x0​)​∥22​∣fl^(x0​)​(x0​)−fk^(x0​)​(x0​)∣​(wl^(x0​)​−wk^(x0​)​),(9)

fff为一般多分类

P~i=∩k=1c{x:fk^(x0)(xi)+∇Tfk^(x0)(xi)(x−xi)≥fk(xi)+∇Tfk(xi)(x−xi)},(10)\tag{10} \tilde{P}_i=\cap_{k=1}^c \{x: f_{\hat{k}(x_0)}(x_i) + \nabla^T f_{\hat{k}(x_0)}(x_i) (x-x_i)\ge f_k(x_i) + \nabla^Tf_k(x_i)(x-x_i)\}, P~i​=∩k=1c​{x:fk^(x0​)​(xi​)+∇Tfk^(x0​)​(xi​)(x−xi​)≥fk​(xi​)+∇Tfk​(xi​)(x−xi​)},(10)

ri(xi)=∣fl^(xi)(xi)−fk^(x0)(xi)∣∥∇fl^(xi)(xi)−∇fk^(x0)(xi)∥22(∇fl^(xi)(xi)−∇fk^(x0)(xi)).r_i(x_i)=\frac{|f_{\hat{l}(x_i)}(x_i) - f_{\hat{k}(x_0)}(x_i)|}{\|\nabla f_{\hat{l}(x_i)}(x_i) - \nabla f_{\hat{k}(x_0)}(x_i)\|_2^2}(\nabla f_{\hat{l}(x_i)}(x_i) - \nabla f_{\hat{k}(x_0)}(x_i)). ri​(xi​)=∥∇fl^(xi​)​(xi​)−∇fk^(x0​)​(xi​)∥22​∣fl^(xi​)​(xi​)−fk^(x0​)​(xi​)∣​(∇fl^(xi​)​(xi​)−∇fk^(x0​)​(xi​)).

lpl_plp​

p∈(1,∞)p \in (1, \infty)p∈(1,∞)的时候
考虑如下的问题
min⁡∥r∥pps.t.wT(x+r)+b=0,\begin{array}{ll} \min & \|r\|_p^p \\ \mathrm{s.t.} & w^T(x+r)+b=0, \end{array} mins.t.​∥r∥pp​wT(x+r)+b=0,​
利用拉格朗日乘子
min⁡r∥r∥pp+c(wT(x+r)+b),\min_r \: \|r\|_p^p + c(w^T(x+r)+b), rmin​∥r∥pp​+c(wT(x+r)+b),
由KKT条件可知(这里的rkr_krk​表示第kkk个元素)
p∣rk∣p−1=ckwk,p\: |r_k|^{p-1} = c_kw_k, p∣rk​∣p−1=ck​wk​,
注: 这里有一个符号的问题, 但是可以把符号放入ckc_kck​中进而不考虑,

r∗=c⊙wq−1,r_*= c \odot w^{q-1}, r∗​=c⊙wq−1,
其中q=pp−1q=\frac{p}{p-1}q=p−1p​为共轭指数, 并c=[c1,…]Tc=[c_1,\ldots]^Tc=[c1​,…]T,且∣ci∣=∣cj∣,|c_i|=|c_j|,∣ci​∣=∣cj​∣, 记wq−1=[∣w1∣q−1,…]Tw^{q-1}=[|w_1|^{q-1},\ldots]^Twq−1=[∣w1​∣q−1,…]T,又
wT(x+c⊙wq−1)+b=0,w^T(x+c\odot w^{q-1})+b=0, wT(x+c⊙wq−1)+b=0,

∣c∣=∣wTx+b∣∥w∥qq,|c|=\frac{|w^Tx+b|}{\|w\|_q^q} , ∣c∣=∥w∥qq​∣wTx+b∣​,

r∗=−wTx+b∥w∥qqwq−1⊙sign(w).r_*=-\frac{w^Tx+b}{\|w\|_q^q} w^{q-1} \odot \mathrm{sign}(w). r∗​=−∥w∥qq​wTx+b​wq−1⊙sign(w).

p=1p=1p=1, 设www的绝对值最大的元素为wmw_{m}wm​, 则
r∗=−wTx+bwm1m,r_*=-\frac{w^Tx+b}{w_m} \mathrm{1}_m, r∗​=−wm​wTx+b​1m​,
1m\mathrm{1}_m1m​为第mmm个元素为1, 其余元素均为0的向量.
p=∞p=\inftyp=∞,
r∗=−∣wTx+b∣∥w∥1sign(w).r_*=-\frac{|w^Tx+b|}{\|w\|_1} \mathrm{sign} (w). r∗​=−∥w∥1​∣wTx+b∣​sign(w).

故:

p∈[1,∞)p \in [1, \infty)p∈[1,∞):


p=∞p=\inftyp=∞:

注: 因为, 仅仅到达边界并不足够, 往往希望更进一步, 所以在最后(?)x=x+(1+η)rx=x+ (1+\eta) rx=x+(1+η)r, 文中取η=0.02\eta=0.02η=0.02.

DeepFool: a simple and accurate method to fool deep neural networks相关推荐

  1. 论文那些事—DeepFool: a simple and accurate method to fool deep neural networks

    DeepFool: a simple and accurate method to fool deep neural networks 1.摘要及背景 提出Deepfool算法,对比FGSM和I-BL ...

  2. 意图识别算法:噪音处理之O2U-Net: A Simple Noisy Label Detection Approach for Deep Neural Networks

    目录 问题描述 解决思路 具体过程 预训练阶段 Cyclical Training阶段 clean dataset训练阶段 实验结果 论文下载:O2U-Net: A Simple Noisy Labe ...

  3. AutoZOOM: Autoencoder-based Zeroth Order Optimization Method for Attacking Black-box Neural Networks

    AutoZOOM: Autoencoder-based Zeroth Order Optimization Method for Attacking Black-box Neural Networks ...

  4. Autoencoder-based Zeroth Order Optimization Method for Attacking Black-box Neural Networks

    AutoZOOM: Autoencoder-based Zeroth Order Optimization Method for Attacking Black-box Neural Networks ...

  5. 关于Training deep neural networks for binary communication with the Whetstone method的代码实现

    GitHub网址如下: https://github.com/SNL-NERL/Whetstone/blob/master/examples/adaptive_mnist.py 实现过程中解决的问题: ...

  6. LQ-Nets: Learned Quantization for Highly Accurate and Compact Deep Neural Networks

    本文提出了一种通过学习来获得合适的量化间隔的方法. 本文的思路很简单,作者将uniform量化视作几个量化level的线性叠加: 左边是量化level,右边是线性叠加系数,它的取值范围为0或1. 于是 ...

  7. PapeDeading:Deep into Regularity: A Simple but Effective Method for Chinese Named Entity Recognition

    Deep into Regularity: A Simple but Effective Method for Chinese Named Entity Recognition 文章目录 摘要 结论 ...

  8. 我的实用设计模式之Simple Factory,Factory Method和Abstract Factory

    更新1:更新Factory Method部分,说明文中使用"参数化工厂方法"的实现,同时加入经典Factory Method的实现进行比较. 更新2:更新Abstract Fact ...

  9. 【图像超分辨率】Accurate Image Super-Resolution Using Very Deep Convolutional Networks

    Accurate Image Super-Resolution Using Very Deep Convolutional Networks VDSR Accurate Image Super-Res ...

  10. [论文阅读笔记]SEMANTIC ADVERSARIAL ATTACKS: PARAMETRIC TRANSFORMATIONS THAT FOOL DEEP CLASSIFIERS(ICCV)

    SEMANTIC ADVERSARIAL ATTACKS: PARAMETRIC TRANSFORMATIONS THAT FOOL DEEP CLASSIFIERS(2019 ICCV) 文章简介: ...

最新文章

  1. Unity的学习笔记(鼠标移动控制视角移动)
  2. 在实际使用中 mysql所支持的触发器有_计算机二级考试MySQL数据库每日一练 12月26日...
  3. 写了这么久前端,你知道浏览器原理吗?
  4. 使用Try.NET创建可交互.NET文档
  5. 毛骨悚然,亚马逊AI突然笑出声来
  6. form表单target的用法 替代window.open
  7. oracle 退出循环 使变量清空,[转]Oracle 清除incident和trace -- ADRCI用法
  8. poj3254:基础状压dp
  9. [jzoj NOIP2018模拟11.02]
  10. JavaScript 检测当前浏览器内核并提示下载谷歌Chrome浏览器
  11. linux使用grep查找文件内容,linux如何使用grep命令查找文件内容
  12. 【Qt】Qt 开发环境安装 ( Qt 版本 5.14.2 | Qt 下载 | Qt 安装 )
  13. 微型计算机的 CPU主要由两部分构成,微机是由哪两部分组成
  14. android 面包屑控件,android面包屑導航欄的實現
  15. 数据科学包_Eighth_Chapter
  16. 数据科学家也良莠不齐 蹩脚数据科学家的10个迹象
  17. Kaggle无法出现人机验证的解决办法
  18. [Codeforces1155F][DP]Delivery Oligopoly
  19. 网站微信扫码支付流程
  20. Commerzbank和Sparkasse开始支持Apple Pay

热门文章

  1. 计算机专业教师技能比赛,青年教师展风采,技能比赛促提升
  2. 手把手教你把ASP.NET项目发布到服务器上(没学会随时来打我)
  3. ic 卡获取帐号apdu指令_发送获取银行卡卡号的APDU命令
  4. 从命令行读入一个字符串,表示一个年份,输出该年的世界杯冠军是哪支球队。如 果该年没有举办世界杯,则输出:没有举办世界杯
  5. 等保备案和通信网络单元定级备案的五大区别讲解
  6. 电脑上的网站服务器在哪里能看到,怎么样查看windows电脑服务器IP地址
  7. Travis CI mysql_连续集成 – 使用Travis CI配置Mysql 5.7
  8. linux 在固定网址yum,linux yum介绍
  9. IP协议及IPV4地址
  10. 交大计算机毕业去华为,想进华为,报考这几所大学,毕业生在华为扎堆!