一、总结

这是一篇发表在2015年CCS上的一篇论文,相见恨晚,虽然时间比较久了,但是这篇论文还是很值得去读。

文章介绍的是模型逆向攻击,模型逆向攻击(model inversion attack)可以利用黑盒模型输出中的 confidence 等信息将训练 集中的人脸恢复出来。他们针对常用的面部识别 模型,包括 softmax 回归、多层感知机和自编码器网络实施模型逆向攻击。他们认为模型输出的confidence 包含的输入数据信息,也可以作为 输入数据恢复攻击的衡量标准。他们将模型逆向攻击问题转变为一个优化问题,优化目标为使逆向数据的输出向量与目标数据的输出向量差异尽可能地小,即假如攻击者获得了属于某一类别的输出向量,那么他可以利用梯度下降的方法使逆向的数据经过目标模型的推断后,仍然能得到同样的输出向量[1]。

二、introduction

许多公司建立了ML即服务云系统,其中客户可以上传数据集,训练分类器或回归模型,然后获得使用训练过的模型执行预测查询的访问权。这些模型使用一些特征后,调用API实现预测,而这些API含有很多隐私信息。

原文研究了API模式的攻击,作者首先表明,Fredrikson的攻击,即使它在计算上易于进行,在我们的新环境下中也不是特别有效。因此,我们引入了新的攻击,来推断作为决策树模型输入的敏感特征,以及从API访问面部识别服务中恢复图像的攻击。在这两种情况下关键是,我们可以构建利用api暴露的置信度值的攻击算法。我们的面部识别攻击的一个例子如图1所示:攻击者可以生成一个可识别的人的图像,左边为攻击提取的图像,右边是训练集的图像。

图1

1.ML APIs and model inversion(ML API 模型逆向)

作者大致将客户端访问划分为黑盒或白盒。在黑盒设置中,对抗性的客户端可以对模型进行预测查询,但不能实际下载模型结构。在白框设置中,允许客户端下载该模型的结构。

对于ML 模型来说,我们可以把其比作成一个函数F,然后函数有一些输入[x1,x2,...,xn],这叫做模型的特征,然后模型输出的结果 Y = F(x1,x2,...xn)。

Fredrikson等人[2]的模型反演攻击中,黑客使用黑盒访问 F 来推断一个敏感特征,比如x1,是一个敏感特征,通过一些其他相关特征和输出值y,模型的损失值[3],以及单个变量的边际先验[4]。他们的算法是一个最大后验(MAP)估计器[5],它选取的是的值,使观察到已知值的概率最大化。然而,要做到这一点,需要计算f(x1, ..., xd)的每一个可能的x1值。这限制了它适用于x1可能值有限的设置的范围。

作者的第一个贡献是在一个新的背景下应用了MAP。BigML模型库[4]上的决策树模型中,弗雷德里克森等人的算法会错误地得出结论,但事实上,作者提出了可以显著提高模型逆向效能的新攻击。

2.White-box decision tree attacks (白盒决策树攻击)

调查通过BigML服务API提供的实际数据,我们可以看到模型描述所包含的信息比黑盒攻击所利用的在黑盒攻击中利用的更多信息。特别是,它们提供了训练集中符合决策树中每个决策树中的每个路径的实例数。除以实例总数实例的总数给出了分类的confidence。虽然先验地看,这个额外的信息似乎是无害的,但我们表明它实际上是可以被利用的。我们给出了一个新的MAP估计器,该估计器使用白盒设置中的confifidence信息来推断敏感信息。

confidence就是可信度,可信度就是我的分类器把这个结果预测出来了,这个结果的可信度是多少,有多少的概率认为这个模型是可信的。

三、BACKGROUND

1.ML basics

对于ML 模型来说,我们可以把其比作成一个函数F,然后函数有一些输入[x1,x2,...,xn],这叫做模型的特征,然后模型输出的结果 Y = F(x1,x2,...xn)。

一个ML模型只是一个简单的确定性函数f:Rd→Y,从d个特征到一组输出Y。当Y是一个有限集时,我们将f称为分类器。如果是Y=R,那么f是一个回归模型。

对于多分类模型来说,模型的输出可能有好几个,然后模型一般输出的是每一个类的概率,这个概率成为confidence(可信度)

2.ML APIs

        API一般是为用户提供了一个模型训练平台,用户在线训练模型,然后平台为用户提供一个接口,用户通过接口来预测。一个模型可能是白盒也可能是黑盒,然后一般通过计费的方式限制API的查询次数。

3.Threat model

        作者关注的是一个攻击者可以对模型的随意使用,对手拥有API公开的任何信息。在白框设置中,这意味着可以下载模型f。在黑盒设置中,攻击者选择特征向量进行预测查询。作者关注的是,攻击者可以从模型信息中逆向的获得原始数据集部分内容。

四、THE FREDRIKSON ET AL. ATTACK

        Fredrikson等人考虑了一个线性回归模型F,他们通过白盒和辅助信息得到秘密信息,简单来说 y, =  F(x1,x2,...xn) 。攻击者通过(x2,x3,...,xn, z1,z2,...zt,y)获得x1。其中y是模型输出,x1,x2,...xn是模型输入,z1,z2,...zt是辅助信息。

图2给出了 Fredrikson的逆向算法。err 是高斯误差模型,边际先验pi的计算方法是首先将x划分为不想交的一些范围,然后计算xi落在这个范围db的次数,用该次数除以该范围db所有向量的总数。然后

五、MAP INVERTERS FOR TREES

1.Decision tree background

这里介绍的是决策树,决策树模型递归地将特征空间划分为不相交的区域R1,...,Rm。通过找到包含x的区域,并返回该区域内训练数据中观察到的y的最可能值,对一个实例(x,y)进行预测。一个树可以这样描述:

下面是一个树的例子 :

而对于决策树而言,不仅要考虑描述树,还需要考虑过拟合,因此要对树进行剪枝。要训练一个决策树需要不断的优化参数,下面是决策树的描述以及可信度计算方法。

2.Decision tree APIs

        介绍了BigML决策树也可以提供在线的API服务,有黑盒和白盒两种

3.Black-box MI

作者考虑决策树模型产生离散输出,损失值信息是不同的,作为一个混淆矩阵,而不是高斯分布的标准差。因此,为了我们这里的目的,我们使用混淆矩阵C 定义 err(y, y0 ) Pr [ f(x) = y0 | y is the true label ]

4.White-box MI

        在白盒模型中,攻击者不仅知道 φi ,也知道样本的总数 。攻击者也知道X , 在这个集合S中,S = {si} 1≤i≤m : S = {(φi, ni) | ∃x' ∈ Rd . x'= x∧ φi(x')}。此外每个φi 对应一个ni ,然后Pi = ni/N,然后代入算法就可以计算。

六、FACIAL RECOGNITION MODELS

作者在这个模型中主要讨论了两种攻击:reconstruction attack、deblurring attack。reconstruction attack是攻击者知道模型输出的结果,然后攻击者根据输出的结果可以还原出原始的图像。deblurring attack 则是攻击者得到了一副模糊图像,可以使用该模糊图像作为侧信息,输出去模糊的图像。

1.background

(1)Softmax regression:softmax 通常用于最后一层,多用于多分类任务,输出每一个类别的得分值

(2)Multilayer perceptron network:多层感知网络,有3000个sigmod的隐藏层,加上一个softmax层。该分类器可以理解为在首先对特征向量应用非线性变换后执行softmax回归。

(3)Stacked denoising autoencoder network:两个隐藏层,分别是1000个sigmod和300个sigmod,然后连接上一个softmax层

(4)Dataset:每组10张,40组总共400张图像。我们将每个人的图像分为训练集(7张图像)和验证集(3张图像),准确率如图:

(5)Basic MI attack:

模型的输出是一个向量,每一个分量是属于某一个类的概率,是输出的第i个分量。

         使用梯度下降(GD)来最小化涉及的代价函数,以在此设置下进行模型反演。梯度下降通过将一个候选解迭代地变换为在该候选解处的梯度的负值来找到一个可微函数的局部最小值。我们的算法由算法1中的函数MI-Face给出:

c是损失函数,AuxTERM 函数是一个针对不同案例,会变化的函数,λ是梯度下降的步长。

2.Reconstruction Attack

作者定义了 AuxTerm(x)  = 0 对于所有的 x. 作者对于 MI-Face 算法的参数为: α = 5000, β = 100, γ = 0.99, and λ = 0.1; 对于DAE来说,process过程使用的是算法2。ProcessDAE将候选像素解码到原始像素空间中,应用去噪滤波器,然后使用锐化滤波器,并将得到的像素重新编码到潜在空间中。我们发现,这种处理从最终的重建中消除了大量的噪声,同时增强了可识别的特征,并使相对像素强度更接近来自训练集的图像。

七、 reference

[1] Kui REN, Quanrun MENG, Shoukun YAN, Zhan QIN. Survey of artificial intelligence data security and privacy protection[J]. Chinese Journal of Network and Information Security, 2021, 7(1): 1-10

[2] M. Fredrikson, E. Lantz, S. Jha, S. Lin, D. Page, and T. Ristenpart. Privacy in pharmacogenetics: An end-to-end case study of personalized warfarin dosing. In USENIX Security Symposium, pages 17–32, 2014.

[3] https://blog.csdn.net/qq_31020665/article/details/100080181

[4] 贝叶斯统计 | 第三章第一部分 根据先验分布类型或边际分布确定先验分布 - 知乎 (zhihu.com)

[5] (1条消息) 最大后验估计(MAP)_liangjiubujiu的博客-CSDN博客_最大后验估计

Model Inversion Attacks that Exploit Confidence Informati on and Basic Countermeasures 阅读心得相关推荐

  1. 【论文阅读】Reinforcement Learning-Based Black-Box Model Inversion Attacks

    论文地址:https://arxiv.org/abs/2304.04625 内容摘要: 模型反转攻击是一种隐私攻击,它仅通过访问模型来重建用于训练机器学习模型的私人数据. 近年来,利用生成对抗网络(G ...

  2. Contrastive Model Inversion for Data-Free Knowledge Distillation

    Contrastive Model Inversion for Data-Free Knowledge Distillation Model inversion,其目标是从预训练的模型中恢复训练数据, ...

  3. READ-2204 FL-WBC Enhancing Robustness against Model Poisoning Attacks in Federated Learning

    READ-2204 FL-WBC Enhancing Robustness against Model Poisoning Attacks in Federated Learning from a C ...

  4. READ-2203 FLDetector: Defending Federated Learning Against Model Poisoning Attacks via Detecting Mal

    READ-2203 FLDetector: Defending Federated Learning Against Model Poisoning Attacks via Detecting Mal ...

  5. Stetman读peper小记:INVERSENET: Augmenting Model Extraction Attacks withTraining Data Inversion

    注:笔者本周阅读了(Xueluan Gong, Yanjiao Chen , Wenbin Yang, Guanghao Mei and Qian Wang)关于模型提取的后门攻击的论文INVERSE ...

  6. 从安全视角对机器学习的部分思考

    https://www.toutiao.com/a6645122824279163399/ 2019-01-11 14:30:24 陈立庚 南京大学 研究方向:系统安全与软件安全 摘要 近几年,机器学 ...

  7. MindSpore技术理解(下)

    MindSpore技术理解(下) 4 GraphEngine 由于深度学习算法需要进行大量的计算,很多公司都设计了自己的深度学习专用处理器(如谷歌的张量处理器.阿里巴巴的含光等),华为也发布了自主设计 ...

  8. 联邦学习的隐忧:来自梯度的深度泄露

    作者 | Ligeng Zhu and Song Han 编译 | 对外经济贸易大学金融科技实验室 头图 | 下载于视觉中国 [编者按]数据交易流通是数据要素市场建立的关键环节.为了在推动数据流动的同 ...

  9. 如何在机器学习的框架里实现隐私保护?

    编者按:数据时代,人们从技术中获取便利的同时,也面临着隐私泄露的风险.微软倡导负责任的人工智能,因此机器学习中的隐私保护问题至关重要.本文介绍了目前机器学习中隐私保护领域的最新研究进展,讨论了机密计算 ...

最新文章

  1. 利用adb命令查看apk文件包名的一些方法
  2. 四十二、文件的物理结构(下)
  3. H3C LMI协议标准
  4. js_加入收藏夹功能
  5. 芯灵思Sinlinx A64开发板 Linux内核等待队列p
  6. 链队列的建立、判空、入队、出队、求长、访头、清空和销毁
  7. 修改LDAP查询默认1000条限制
  8. HTML encoding of foreign language characters
  9. 导航跳转后保持选中状态 jquery高亮当前选中菜单
  10. php array分组,php数组分组简单例子
  11. java并发核心知识体系精讲_Java 面试突击之 Java 并发知识基础 amp; 进阶考点全解析
  12. 为什么定义!doctype html表格高度变高,!DOCTYPE html声明下div高度100%的问题解决方法...
  13. command对象的三个主要的方法 1119
  14. 类 java_java类的基本结构
  15. Python+django网页设计入门(3):使用SQLite数据库
  16. ASM磁盘配置(udev)
  17. hp 磁带机安装配置
  18. 银联网关支付,退款java实现
  19. django.db.utils.DataError: (1366, “Incorrect string value: ‘\\xE5\\x85\\xAD\\xE5\\x8D\\x83‘ for colu
  20. 思科实验4.网络层:路由器IP地址配置

热门文章

  1. 【BZOJ】1665: [Usaco2006 Open]The Climbing Wall 攀岩(spfa)
  2. 使用Google语音识别引擎(Google Speech API)
  3. matlab实现四重积分和多重积分
  4. Android开发AndroidStudio与eclipse安装与使用
  5. laravel教程入门笔记
  6. sql查询查询半小时内数据的方法
  7. linux网页没有声音,linux 系统播放网页内容没声音
  8. PyTorch-5 自定义 Datasets, DataLoaders 和 Transforms
  9. python的多线程
  10. 【降维打击】希尔伯特曲线