文章目录

  • 一、论文相关信息
    •   1.论文题目
    •   2.论文时间
    •   3.论文文献
  • 二、论文背景及简介
  • 三、论文内容总结
  • 四、论文主要内容
    • 1、Introduction
    • 2、Methods Of Generating Adversarial Images
    • 3、Photos Of Adversarial Examples
      • 1、对抗样本的破坏率(Destruction rate)
      • 2、实验部分
      • 3、实验结果
    • 4、Artificial Image Transformations
    • 5、Conclusion
    • 6、附录

一、论文相关信息

  1.论文题目

     Adversarial examples in the physical world

  2.论文时间

    2016年

  3.论文文献

    https://arxiv.org/abs/1607.02533

二、论文背景及简介

    目前大多数的攻击对象都是threat model,攻击者可以直接将数据送到分类器中。但在现实世界,可不都是这种情况,比如在很多情况下,人们只能依靠一些设备例如照相机、传感器来传送数据(生成对抗样本后,再由照相机拍照或传感器感知)。这篇文章展示了,在这些现实世界的传感器面前,机器学习系统也是易受对抗样本攻击的。

三、论文内容总结

  • 探讨了为在物理世界中运行的机器学习系统创建对抗样本的可能性
  • 使用了迭代的方法来生成对抗样本,有BIM以及ILLC

X 0 a d v = X , X N + 1 a d v = C l i p X , ϵ { X N a d v + α s i g n ( ∇ X J ( X N a d v , y t r u e ) } X_0^{adv} = X,\ \ \ \ X_{N+1}^{adv} = Clip_{X,\epsilon}\{X_{N}^{adv}+\alpha sign(\nabla_{X}J(X_{N}^{adv},y_{true})\} X0adv​=X,    XN+1adv​=ClipX,ϵ​{XNadv​+αsign(∇X​J(XNadv​,ytrue​)}

X 0 a d v = X , X N + 1 a d v = C l i p X , ϵ { X N a d v − α s i g n ( ∇ X J ( X N a d v , y L L ) ) } X_0^{adv} = X,\ \ \ \ X_{N+1}^{adv} = Clip_{X,\epsilon}\{X_{N}^{adv}-\alpha sign(\nabla_{X}J(X_{N}^{adv},y_{LL}))\} X0adv​=X,    XN+1adv​=ClipX,ϵ​{XNadv​−αsign(∇X​J(XNadv​,yLL​))}

  • 引入了破坏率来表示现实世界中的变换对对抗样本的影响
  • ILLC生成的扰动相对于FGSM来说,更小。也更容易被现实世界所破坏

附:如需继续学习对抗样本其他内容,请查阅对抗样本学习目录

四、论文主要内容

1、Introduction

    在本节,作者主要介绍了现实世界的攻击是怎样的情况。

    之前的工作做的都是电脑内部的对抗攻击,比如:逃避恶意软件检测等。而并没有考虑过现实世界的应用,比如:通过照相机和传感器感知世界的机器人,视频监控系统,手机应用等。在这样的情境中,攻击者不能够依赖输入数据的每像素细粒度修改能力。这就产生了一个问题,也是本篇论文主要讨论的问题,是否能够在这样的情况下(应用于现实世界,使用各种传感器来感知数据,而不是通过数学表示),得到对抗样本?

2、Methods Of Generating Adversarial Images

    在本节,主要介绍了一些生成对抗样本的不同的方法。BIM(Basic Iterative Method) 以及ILLC(Iteratice Least-Likely Class Method) 便在本节介绍。

    在此,解释一下,本节要用到的一个特殊的符号:
C l i p X , ϵ { X ′ } ( x , y , z ) = m i n { 255 , X ( x , y , z ) + ϵ , m a x { 0 , X ( x , y , z ) − ϵ , X ′ ( x , y , z ) } } Clip_{X,\epsilon}\{X'\}(x,y,z) = min\{255,X(x,y,z)+\epsilon,max\{0,X(x,y,z)-\epsilon,X'(x,y,z)\}\} ClipX,ϵ​{X′}(x,y,z)=min{255,X(x,y,z)+ϵ,max{0,X(x,y,z)−ϵ,X′(x,y,z)}}
    在该公式中, x , y , z \ x,y,z  x,y,z 表示X处于三维空间中,也即图片的宽度、高度、通道数。该公式的意思是限制生成的对抗样本在X的 ϵ \ \epsilon  ϵ 邻域内。

    在这节也介绍了FGSM,但本文重点不在此,在这里不多介绍。

    BIM是FGSM的拓展,作者进行了多次小步的迭代,并且在每一步之后都修剪得到的结果的像素值,来确保得到的结果在原始图像的 ϵ \ \epsilon  ϵ 邻域内,公式如下:
X 0 a d v = X , X N + 1 a d v = C l i p X , ϵ { X N a d v + α s i g n ( ∇ X J ( X N a d v , y t r u e ) } X_0^{adv} = X,\ \ \ \ X_{N+1}^{adv} = Clip_{X,\epsilon}\{X_{N}^{adv}+\alpha sign(\nabla_{X}J(X_{N}^{adv},y_{true})\} X0adv​=X,    XN+1adv​=ClipX,ϵ​{XNadv​+αsign(∇X​J(XNadv​,ytrue​)}
    在实验中,作者使用 α = 1 \ \alpha = 1  α=1 ,这意味着,在每一步我们改变每一个像素1点。作者选择迭代次数为 m i n ( ϵ + 4 , 1.25 ϵ ) \ min(\epsilon+4,1.25\epsilon)  min(ϵ+4,1.25ϵ) 。

    ILLC是BIM的拓展,ILLC将攻击拓展到了目标攻击,该迭代方法试图让对抗样本被误分类成一个特定的类,作者选择与原图像最不像的类作为目标类,即:
y L L = a r g m i n y { p ( y ∣ X ) } y_{LL} = argmin_y \{p(y|X)\} yLL​=argminy​{p(y∣X)}
    为了让对抗样本误分类成 y L L \ y_{LL}  yLL​ ,我们就需要最大化 l o g p ( y L L ∣ X ) \ log \ p(y_{LL}|X)  log p(yLL​∣X) 。所以我们就需要在 s i g n { ∇ X l o g p ( y L L ∣ X ) } \ sign\{\nabla_X log\ p(y_{LL}|X)\}  sign{∇X​log p(yLL​∣X)}的方向上进行迭代,对于使用交叉熵作为损失函数的网络,其表达形式就是 s i g n { − ∇ X J ( X , y L L ) } \ sign\{-\nabla_X J(X,y_{LL})\}  sign{−∇X​J(X,yLL​)} 。因此ILLC的表达形式为:
X 0 a d v = X , X N + 1 a d v = C l i p X , ϵ { X N a d v − α s i g n ( ∇ X J ( X N a d v , y L L ) ) } X_0^{adv} = X,\ \ \ \ X_{N+1}^{adv} = Clip_{X,\epsilon}\{X_{N}^{adv}-\alpha sign(\nabla_{X}J(X_{N}^{adv},y_{LL}))\} X0adv​=X,    XN+1adv​=ClipX,ϵ​{XNadv​−αsign(∇X​J(XNadv​,yLL​))}

    作者就三个方法进行了实验比较,实验方法如下:

    整个实验是在ImageNet的验证集(50000张图片)上进行的,使用了一个预训练的Inception v3的分类器。对每一个验证集上的图片,我们使用不同的方法和 ϵ \ \epsilon  ϵ 生成对抗样本,并且记录在全部的50000张图片上的分类正确率。之后,我们计算了在干净数据集上的正确率。结果如下:

3、Photos Of Adversarial Examples

1、对抗样本的破坏率(Destruction rate)

    为了研究任意变换对对抗样本的影响,作者引入了破坏率的概念。即:在变换后,对抗样本不再被误分类的比例。定义如下:
d = ∑ k = 1 n C ( X k , y t r u e k ) C ( X a d v k , y t r u e k ) ‾ C ( T ( X a d v k ) , y t r u e k ) ∑ k = 1 n C ( X k , y t r u e k ) C ( X a d v k , y t r u e k ) ‾ d = \frac{\sum_{k=1}^nC(X^k,y_{true}^k)\overline{C(X_{adv}^k,y_{true}^k)}C(T(X_{adv}^k),y_{true}^k)}{\sum_{k=1}^nC(X^k,y_{true}^k)\overline{C(X_{adv}^k,y_{true}^k)}} d=∑k=1n​C(Xk,ytruek​)C(Xadvk​,ytruek​)​∑k=1n​C(Xk,ytruek​)C(Xadvk​,ytruek​)​C(T(Xadvk​),ytruek​)​
    n \ n  n 表示图片的数量, X k \ X^k  Xk 表示第k个图片, y t r u e k \ y_{true}^k  ytruek​ 表示第k个图片的正确类别, X a d v k \ X_{adv}^k  Xadvk​ 表示第k个图片的对抗样本,函数 T \ T  T 表示一种任意的图片变换(如打印图片后拍摄照片等)。
C ( X , y ) = { 1 if image X is classified as y 0 otherwise C(X,y) = \left\{ \begin{array}{lr} 1\ \ \text{if image X is classified as y}\\ 0\ \ \text{otherwise} \end{array} \right. C(X,y)={1  if image X is classified as y0  otherwise​
    这个公式的意思就是,在被攻击成功的图片里面,可以通过任意的变换使其不被攻击成功的图片的比例。

2、实验部分

    作者进行了photo transformation,即:先将图片与对抗样本打印出来,然后拍照,分别得到转换后的clean image和对抗样本。

    注:实验获得的所有照片都是手动拍摄,拍摄的角度、光照、距离等都是随机的,这就引入了破环对抗扰动的可能性。

    作者进行了两组实验,第一个实验是使用的完整的数据集,即原始图片包含会被正确分类和不会被正确分类的干净数据。第二个实验是使用的预过滤的数据,即原始图片都是被正确分类的干净数据,且对抗样本都被误分类,且置信度都大于0.8。

3、实验结果

    实验显示,**FGSM相比于ILLC,对photo变换更加robust。**作者是这样解释的,ILLC使用的是更小的扰动,而这些扰动更容易被photo变换破环。

    还有一个没有预料到的结果是,在一些情况下,使用预过滤的数据得到的破坏率比使用完整的数据的高。

    实验结果如下:

4、Artificial Image Transformations

    除了一些自然的变换,作者还是用了一些人工变换进行试验,如:改变亮度和对比度,高斯模糊、高斯噪声,JPEG编码。

    作者经过实验发现,FGSM比ILLC更加robust,top-5的破坏率普遍比top-1的高,改变亮度和对比度并不会影响对抗样本很多。

5、Conclusion

    在本文中,我们探讨了为在物理世界中运行的机器学习系统创建对抗样本的可能性。我们使用通过手机拍摄的照片作为Inceptionv3网络的输入。我们发现,有相当一部分的对抗样本是成功的。这个发现,也就证明了,在现实世界中的对抗样本是可行的。

    今后的工作,我们期待,会有一些使用其他的现实物体的攻击,对抗不同种类的机器学习系统的攻击,例如复杂的强化学习,在那些不能访问模型的参数和结构的网络上的攻击,以及通过明确的为现实世界的变换建模而得到的一个有更高成功率的针对现实世界的攻击

6、附录



对抗样本(四)BIMILLC相关推荐

  1. 清华朱军团队包揽三项冠军 | NIPS 2017对抗样本攻防竞赛总结(附学习资料)

    来源:AI科技评论 作者:高云河 本文共8989字,建议阅读10分钟. 本次比赛总结由谷歌大脑.清华大学以及其它参与研究人员们联合撰写,为你介绍NIPS 2017 对抗样本攻防比赛的情况. 自 Ian ...

  2. 7 papers | 对抗样本前,BERT也不行;AutoML的商业实践综述

    https://www.toutiao.com/a6716370089295217160/ 机器之心整理 参与:一鸣 本周有一些重要的研究成果,如 Julia 将内嵌自动可微编程特性.以及 Ian G ...

  3. AdvFlow:一种基于标准化流的黑盒攻击新方法,产生更难被发觉的对抗样本 | NeurIPS‘20

    本文提出一种新的黑盒对抗攻击方法AdvFlow,通过利用标准化流来建模对抗样本的数据分布,使得生成的对抗样本的分布和正常样本接近,从而让对抗样本更难被检测出来,打破了对抗样本和正常样本的分布大不相同的 ...

  4. FGPM:文本对抗样本生成新方法

    ©PaperWeekly 原创 · 作者|孙裕道 学校|北京邮电大学博士生 研究方向|GAN图像生成.情绪对抗样本生成 论文标题: Fast Gradient Projection Method fo ...

  5. 论文盘点:GAN生成对抗样本的方法解析

    ©PaperWeekly 原创 · 作者|孙裕道 学校|北京邮电大学博士生 研究方向|GAN图像生成.情绪对抗样本生成 引言 对抗样本的生成方式很多.一般情况下会分成三大类,第一种是基于梯度的生成方式 ...

  6. [当人工智能遇上安全] 1.人工智能真的安全吗?浙大团队外滩大会分享AI对抗样本技术

    您或许知道,作者后续分享网络安全的文章会越来越少.但如果您想学习人工智能和安全结合的应用,您就有福利了,作者将重新打造一个<当人工智能遇上安全>系列博客,详细介绍人工智能与安全相关的论文. ...

  7. [论文阅读] (04) 人工智能真的安全吗?浙大团队外滩大会分享AI对抗样本技术

    外滩大会 AI安全-智能时代的攻守道 Deep Learning Security: From the NLP Perspective 浙江大学 <秀璋带你读论文>系列主要是督促自己阅读优 ...

  8. pytorch 对抗样本_【炼丹技巧】功守道:NLP中的对抗训练 + PyTorch实现

    本文分享一个"万物皆可盘"的NLP对抗训练实现,只需要四行代码即可调用.盘他. 最近,微软的FreeLB-Roberta [1] 靠着对抗训练 (Adversarial Train ...

  9. 小样本点云深度学习库_合成鲁棒的对抗样本来欺骗深度学习分类器

    本期一诺sec关注深度学习系统安全问题,推荐一篇来自ICML 2018会议论文Synthesizing Robust Adversarial Examples.论文链接http://proceedin ...

最新文章

  1. 中文URL是否有利于网站SEO
  2. 【渝粤题库】陕西师范大学700004 植物生理学
  3. matlab实现m-k突变的,用matlab进行mk趋势分析与突变检验.pdf
  4. 如何解决谷歌云盘wget无法下载大文件的问题
  5. LAMP架构简介与概述 及服务安装
  6. CAD图纸、影像地形、倾斜摄影、矢量数据统统搬入图新地球,一键浏览分析
  7. 《怎样解题》读书笔记
  8. 逆向分析商业软件 010 Editor 及注册机编写
  9. libtorrent编译
  10. Easyui文件上传格式限制
  11. 视差贴图(Parallax Mapping)
  12. 量子擦除延迟选择实验时间猜想
  13. iOS获取设备的序列号
  14. vue - vue中使用西瓜播放器xgplayer
  15. jieba分词词性标注含义
  16. java-multimap使用
  17. try、catch、finally
  18. matlab中各种括号的用途
  19. idea 划词就能翻译的插件_划词翻译插件下载-划词翻译Chrome插件-独木成林
  20. 怎么测量一个程序的启动时间?

热门文章

  1. 把脉年轻用户关注趋势? 试试搜狗指数
  2. sqlalchemy钩子
  3. opencv人头检测
  4. Spark快速大数据分析——读书笔记
  5. VisualStudio2019安装VisualAssist
  6. C/C++小学100以内正整数加减运算[2023-03-14]
  7. html下拉框onchange事件,javascript 中select标签上放入onchange事件的两种方式分享
  8. 鸡你太美 攻防世界 打野(详细)
  9. linux如何系统版本信息,【教程】如何查看Linux系统版本信息
  10. Google Friendly的网站设计