对抗攻击、防御论文介绍
攻击:
快速梯度符号法(FGSM),通过在损失梯度的梯度方向上添加增量来生成一个对抗示例:
Goodfellow, Ian J., Jonathon Shlens, and Christian Szegedy. Explaining and harnessing adversarial examples.
基本迭代方法(BIM),它是FGSM的改进版本,与FGSM相比,BIM执行多个步骤,多次迭代:
Kurakin, Alexey, Ian Goodfellow, and Samy Bengio. Adversarial machine learning at scale.
PGD 多次迭代循环的梯度下降方法:
Madry, Aleksander, et al. Towards deep learning models resistant to adversarial attacks.
CW: CarliniWagner他们设计了有效的优化目标,以找到最小的扰动:
Carlini, Nicholas, and David Wagner. Towards evaluating the robustness of neural networks.
DeepFool: 最少量的修改原始图像,来达到欺骗AI模型的目的:
DeepFool: a simple and accurate method to fool deep neural networks
One pixel attack, 黑盒攻击,只改变一个像素点即可实现攻击:
One pixel attack for fooling deep neural networks
防御:
adversarial train:将不同攻击方法生成的对抗图像添加到训练图像数据集中,增加训练图像数据集可以使模型更容易学到整个图像的空间分布
Ensemble adversarial training: Attacks and defenses
label smoothing:soft targets to replace one-hot labels
D. Warde-Farley and I. Goodfellow. 11 adversarial perturbations of deep neural networks
feature squeezing:压缩图像的方法,包括每个像素的颜色位深度和空间平滑度,来实现防御
Detecting Adversarial Examples in Deep Neural Networks using Normalizing Filters
PiexlDefend: 结合噪声图像和干净图像训练一个去噪器,在图像输入模型前进行去噪处理
Pixeldefend: Leveraging generative models to understand and defend against adversarial examples
ComDefend: 仅使用干净数据集,训练得到ComDefend模型,对图像实现压缩重构处理,使其达到去噪的效果
Comdefend: An efficient image compression model to defend adversarial examples.
HGD: high-level representation guided denoiser(HGD) method
Defense against adversarial attacks using high-level representation guided denoiser
对抗攻击、防御论文介绍相关推荐
- AI安全---对抗攻击防御措施
目前,在对抗攻击防御上存在三个主要方向: 1)在学习过程中修改训练过程或者修改的输入样本. 2)修改网络,比如:添加更多层/子网络.改变损失/激活函数等. 3)当分类未见过的样本时,用外部模型作为附加 ...
- 有关对抗攻击的论文整理
对抗攻击 对抗攻击的概念 对抗攻击原理 对抗攻击方法 基于目标模型损失函数 基于目标模型网络结构 基于目标模型预测分数 基于目标模型预测决策 无需 训练替代模型 对抗攻击防御 对抗攻击实例 部分引用, ...
- 基于图神经网络的对抗攻击防御 GNNGUARD: Defending Graph Neural Networks against Adversarial Attacks
参考资料 项目:https://zitniklab.hms.harvard.edu/projects/GNNGuard/ 代码:https://github.com/mims-harvard/GNNG ...
- CVPR2023对抗攻击相关论文
Feature Separation and Recalibration for Adversarial Robustness 论文链接:http://arxiv.org/abs/2303.13846 ...
- 对抗攻击经典论文剖析(下)【DeepFool、One pixel attack、Universal adversarial perturbations、ATN】
引言 上一篇讲的几篇经典对抗攻击论文主要讲的是如何在梯度上扰动或者优化,即尽可能保证下的扰动,不被人类发现,却大大降低了模型的性能.这一篇我们将会有一些更有意思的对抗攻击样本生成,包括像素级别的扰动以 ...
- 对抗攻击经典论文——FGSM学习笔记 EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES
论文下载:Explaining and Harnessing Adversarial Examples 1摘要 几种机器学习模型,包括神经网络,一致地将对抗样本误分类--通过对数据集样本添加细微而刻意 ...
- 《繁凡的论文精读》(一)CVPR 2019 基于决策的高效人脸识别黑盒对抗攻击(清华朱军)
点我一文弄懂深度学习所有基础和各大主流研究方向! <繁凡的深度学习笔记>,包含深度学习基础和 TensorFlow2.0,PyTorch 详解,以及 CNN,RNN,GNN,AE,GAN, ...
- 繁凡的对抗攻击论文精读(二)CVPR 2021 元学习训练模拟器进行超高效黑盒攻击(清华)
点我轻松弄懂深度学习所有基础和各大主流研究方向入门综述! <繁凡的深度学习笔记>,包含深度学习基础和 TensorFlow2.0,PyTorch 详解,以及 CNN,RNN,GNN,AE, ...
- 繁凡的对抗攻击论文精读(三)ICLR2019 利用先验知识进行高效黑盒对抗攻击的 bandits 算法(MIT)
点我轻松弄懂深度学习所有基础和各大主流研究方向入门综述! <繁凡的深度学习笔记>,包含深度学习基础和 TensorFlow2.0,PyTorch 详解,以及 CNN,RNN,GNN,AE, ...
最新文章
- vivado烧录flash过程
- 例题3-4 猜数字游戏的提示(Master-Mind Hints, UVa 340)
- 成功解决ERROR: Could not find a version that satisfies the requirement xgboost (from versions: none) ERR
- dig指定服务器查询域名解析时间
- php ci session获取值,CI3.1 Session类取不到值的问题
- 利用ICallbackEventHandler接口实现Ajax效果
- 自定义action消息
- freebsd mysql tmp_FreeBSD下安装MySQL与MySQLdb笔记
- siteweaver android动易客户端,动易SiteFactory实现SiteWeaver置顶功能
- 三菱plc与计算机无协议通讯,三菱PLC编程口协议与专用协议的区别
- 数值计算原理_数值方法中的有限元法、有限差分法、有限体积法的区别
- 【毕业求职季】-听说你想去大厂看学妹,带你看看字节广告运营岗面试长啥样?
- SuperSlide插件轮播图展示
- 警惕|这类人千万不要转行学IT
- 07 巧算指数温度--参考即可不用算
- Burp Suite安装和使用方法
- 计算机图形学14:三维图形的投影变换
- 最小生成树(普里姆算法)
- centos安装特定版本docker 和 docker-compose 以及防火墙的基本操作
- TP5 短信宝 发送短信验证码