这周读论文。。读的是这篇反正。这个内容比较新,网上也没啥有特别有价值的参考内容,把学习笔记发上来,希望能有一点点帮助
嗯似乎是提出了用GAN以解决神经网络安全性的问题。。。
  • 白盒攻击
攻击者能够获知机器学习所使用的算法,以及算法所使用的参数。攻击者在产生对抗性攻击数据的过程中能够与机器学习的系统有所交互。
  • 黑盒攻击
攻击者并不知道机器学习所使用的算法和参数,但攻击者仍能与机器学习的系统有所交互.比如可以通过传入任意输入观察输出,判断输出。
FGSN,好像是一个挺牛的算法。。
已发现深度神经网络(DNN)容易受到对输入的小幅度扰动造成的对抗性例子的影响。 这种敌对的例子可能会误导DNN以产生对手选择的结果
已经提出了不同的攻击策略来产生敌对性的例子,但是如何以更高的感知质量和更有效率地产生它们需要更多的研究努力
有点云里雾里。。。。
Adversarial Examples 对抗样本
好像是一个用来欺骗网络的样本? 有啥用?
文章发现,通过在原图是加入一些 不可察觉的非随机扰动 ,可以极大改变网络的预测结果。这些扰动是通过最大化预测误差来训练获得输入的,称这种输入为对抗样本。
https://www.zhihu.com/question/49129585 ( 如何看待机器视觉的“对抗样本”问题,其原理是什么?)
原文对对抗样本的解释
attack algorithms
白盒和黑盒 感觉可能就是一个过程可见和一个过程不可见吧。。
论文的重点来了! 贡献如下 (良心论文啊)
1.与以前的基于优化的方法不同,我们训练一个有条件的对抗网络来直接产生敌对的例子,这些例子都是感性逼真的,并且针对不同的目标模型实现了最先进的攻击成功率
2.我们证明AdvGAN可以通过训练蒸馏模型来攻击黑盒模型。 我们建议动态训练带有查询信息的蒸馏模型,实现高黑箱攻击成功率和有针对性的黑箱攻击,这对于基于转移性的黑盒攻击来说很难实现。
3.我们使用最先进的防御方法来抵御敌对的例子,并证明AdvGAN在当前防御下实现更高的攻击成功率。
4.我们在Ma˛dry等人的MNIST挑战(2017a)上应用AdvGAN,在半白盒设置中发布的鲁棒模型的准确率为88.93%,黑盒子设置的准确率为92.76%,赢得挑战中的顶级位置( Ma˛dry等,2017b)。
Here we review recent work on adversarial examples and generative adversarial networks
Adversarial Examples: FGSM 应用一阶损失函数来构建对抗样本 ; the cross-entropy loss:交叉熵损失 ; objective function:目标函数
Black-box Attacks
transferability phenomenon:可转移现象 ;目前大部分的黑盒攻击策略都是依据这玩意
我们的AdvGAN可以执行黑盒攻击 但是不依赖转移性
Generative Adversarial Networks
这个。。没啥好讲的,,
进入正题!
3.2是讲白盒攻击的 3.3是讲黑盒攻击的
GENERATING ADVERSARIAL EXAMPLES WITH ADVERSARIAL NETWORKS
PROBLEM DEFINITION:
instance:例子
这个歪歪扭扭的X是特征,Rn是特征空间,n是特征数量。假设(x_i,y_i)是训练集内的第i个实例
。。。
反正就是要搞出一个x让输出不对 就对了!
ADVGAN FRAMEWORK:
框架如图:
有一个生成器G,一个辨别器D,还有一个要被愚弄的NN f 。。
把x 和 G(x)一起丢进Discriminator里。
D是干啥用的呢?用于区分生成的数据和原始实例x。D的目标是鼓励生成的实例与原始类中的数据无法区分。(有点抽象, 不太好理解)
为了愚弄NN, 我们先实现一个白盒攻击!
对抗损失函数:
这个式子仔细一看!卧槽居然是和GAN的模型是一样的
感觉这个L_GAN就是用来衡量x和x+G(x)相近程度的呀
注意 这里的x是从真实的x里面抽取的
这个L_adv是啥呢,
这个东西就叫他 l _f 吧
首先, l_f是损失函数,啥都可以,例如cross-entropy loss (这里应该是这个损失函数就NN用来调整参数的损失函数,区分开黑白盒)
这个L_adv的作用似乎是用来鼓动NN f朝着t靠近( 有点不懂 没错就是靠着t 因为输出t就是最终目标!现在我们探讨的是目标攻击
我觉得这里应该写错了
这个L_hinge ,大概是用来控制稳定性的?
c是我们自定义的边界,文中没有给出参考的数字
反正最后吧三个加在一起,用DG二人博弈梯度下降应该就OK了 大概就这个意思吧
不管 先往下看
BLACK-BOX ATTACKS WITH ADVERSARIAL NETWORKS
Static Distillation:
这上来一个副标题就看不懂。。。黑盒攻击 假设没有对手的数据和模型的先验知识。
那么就建立一个蒸馏模型f(x)
f(x)和b(x)分别表示给定训练图像x的 蒸馏模型的输出 和 黑盒模型的输出,
反正就是要模拟出一个黑盒中的模型咯
Dynamic Distillation:
只有使用所有原始训练数据对蒸馏模型进行训练是不够的,因为尚不清楚黑盒和蒸馏模型在生成的对抗示例上有多近,而这些示例在训练集中尚未出现。(感觉还可以理解啊
动态蒸馏的 每次迭代分为两步。
1.Update Gi given a fixed network
f0为静态蒸馏出来的f 那么就可以得到G 和 D
2.Update fi given a fixed generator Gi:
想想似乎可行。。。
问题::
怎么样才算是成功的攻击?
个人见解::生成的x+G(x)在肉眼上与x无分辨,但是却可以扰乱NN的判断
那么似乎每次攻击都要去判断一下生成的X+G(X)是否与X相同??
这玩意的缺点是什么?
首先如果上面的猜想是正确的话那就是一个缺点。。。但这个应该是每个对抗样本都有的缺点
二 GAN有的缺点他都有。。。
三蒸馏的f时候真的能和黑盒中的NN无限接近??

[advGAN]Generating Adversarial Examples With Adversarial Networks相关推荐

  1. Generating Adversarial Examples with Adversarial Networks

    文章目录 概 主要内容 black-box 拓展 Xiao C, Li B, Zhu J, et al. Generating Adversarial Examples with Adversaria ...

  2. [深度学习论文笔记][Adversarial Examples] Deep Neural Networks are Easily Fooled: High Confidence Predictions

    Nguyen, Anh, Jason Yosinski, and Jeff Clune. "Deep neural networks are easily fooled: High conf ...

  3. Procedural Noise Adversarial Examples for Black-Box Attacks on Deep Neural Networks论文笔记

    Procedural Noise Adversarial Examples for Black-Box Attacks on Deep Neural Networks论文笔记 0. 概述 如今一些深度 ...

  4. Generating Black-Box Adversarial Examples in Sparse Domain

    论文:Generating Black-Box Adversarial Examples in Sparse Domain 2021年 arxiv文章 摘要: 我们的研究表明:大的稀疏分量对图像分类器 ...

  5. PhysGAN: Generating Physical-World-Resilient Adversarial Examples for Autonomous Driving

    PhysGAN: Generating Physical-World-Resilient Adversarial Examples for Autonomous Driving 本文收录于CVPR 2 ...

  6. [paper]Feature Squeezing: Detecting Adversarial Examples in Deep Neural Networks

    本文提出了两种特征压缩方法: 减少每个像素的颜色位深度 使用空间平滑来减少各个像素之间的差异 特征压缩通过将与原始空间中许多不同特征向量相对应的样本合并为单个样本,从而减少了对手可用的搜索空间.通过将 ...

  7. 对抗样本方向(Adversarial Examples)2018-2020年最新论文调研

    调研范围 2018NIPS.2019NIPS.2018ECCV.2019ICCV.2019CVPR.2020CVPR.2019ICML.2019ICLR.2020ICLR 2018NIPS Conta ...

  8. HYPOTHESES ON THE EXISTENCE OF ADVERSARIAL EXAMPLES

    对抗样本存在的猜想 最初的猜想- low-probability spaces 一开始,对抗样本被认为存在于低概率空间,难以通过对输入周围空间的随机采样来获取.寻找公式2的解决方案 包含了输入空间来寻 ...

  9. Explaining and Harnessing Adversarial Examples

    Explaining and Harnessing Adversarial Examples 包括神经网络在内的一些机器学习模型,始终对对抗性样本进行错误分类–通过对数据集中的例子应用小的但有意的最坏 ...

最新文章

  1. Jquery UI dialog 详解
  2. 证明sinx/x的极限等于1(x趋向于0)
  3. Tensorflow【实战Google深度学习框架】—使用 TensorFlow 实现模型
  4. 让Dreamweaver支持phtml
  5. sharepoint当流程流转到某个节点对文档进行水印操作
  6. 解决ssh登录后闲置时间过长而断开连接
  7. C++编程基础二 13-函数与string对象
  8. raid5 合适 多少块硬盘_分析Linux raid6同步成raid5导致数据丢失的情况
  9. php网站接入微信支付,PHP接入微信H5支付的方法示例
  10. DPDK Release 21.08
  11. 副屏幕全屏_如何让电脑显示器屏幕显示全屏
  12. 【React源码】(十八)React 算法之调和算法
  13. unity怎么显示骨骼_Unity3D 骨骼动画原理学习笔记
  14. 与亲哥决裂20年,董明珠被踢出族谱:帮你是情分,不帮你是本分
  15. pta 循环——首字母大写
  16. (附源码)springboot物联网智能管理平台 毕业设计 211120
  17. 443端口是什么,如何启用?
  18. 播音计算机论文,播音主持论文的题目或论文内容
  19. 程序员需要具备的五个基本条件
  20. 2021年压力容器作业R2移动式压力容器充装证考试题库

热门文章

  1. HTB----Heist(Hard)
  2. ubuntu18.04安装roboware studio
  3. 【jmeter】 --- jmeter使用详解
  4. python文件的基本操作_Python文件基本操作
  5. Eclipse中配置python环境
  6. 一,Weston简介
  7. _access()函数的使用
  8. matlab中函数参数和变量作用域
  9. (2021年)IT技术分享社区个人文章汇总(编程技术篇)
  10. 清除composite里的子控件