PoisonGAN: Generative Poisoning Attacks Against Federated Learning in Edge Computing Systems 阅读报告
预备知识
1.GAN:
公式:
minGmaxD=Ex∽pdata(x)[logD(x)]+Ez∽pz(z)[log(1−D(G(z)))]\underset{G}{min}\underset{D}{max}=\mathbb{E}_{x\backsim p_{data}(x)}[\log D(x)]+\mathbb{E}_{z\backsim p_{z}(z)}[\log (1-D(G(z)))]GminDmax=Ex∽pdata(x)[logD(x)]+Ez∽pz(z)[log(1−D(G(z)))]
pdata(x)p_{data}(x)pdata(x):真实数据的分布
pz(z)p_{z}(z)pz(z):生成器生成的数据的分布
目标:
- 对于鉴别器D来说:如果x是来自pdatap_{data}pdata,那么logD(x)\log D(x)logD(x)的值需要尽可能的大,如果x来自pzp_{z}pz,那么logD(x)\log D(x)logD(x)的值需要尽可能的小,从而log(1−D(G(z)))\log (1-D(G(z)))log(1−D(G(z)))就需要尽可能的大。
- 对于生成器G来说:如果x来自pzp_{z}pz,那么logD(x)\log D(x)logD(x)的值需要尽可能的大,从而log(1−D(G(z)))\log (1-D(G(z)))log(1−D(G(z)))就要尽可能的小。
本文目标:
- 我们证明了联邦学习在本质上很容易受到恶意参与者发起的中毒攻击,并给出了攻击模型。
- 我们提出了一种名为Data_Gen的有害数据生成方法,攻击者可以悄悄部署本地化GAN来模仿其他参与者的训练样本
算法:
有毒数据生成算法:
生成中毒数据的算法:
输入:训练数据DtrainD_{train}Dtrain,全局模型GtG_tGt,噪声样本ZnoiseZ_{noise}Znoise,标签YYY。
输出:有毒数据DnoiseD_{noise}Dnoise
Step1:初始化鉴别器D和生成器G。
Step2:循环t次,t为全局模型更新的次数。
Step3:把噪声样本中的数据输入到生成器G中生成xfake,然后把xfakex_{fake},然后把x_{fake}xfake,然后把xfake发送到D。
Step4:如果xfakex_{fake}xfake的标签是ymy_{m}ym,把xfakex_{fake}xfake赋值给xmx_{m}xm,如果不是就更新生成器。
Step5:如果xmlabel=ymx_{m}^{label}=y_{m}xmlabel=ym,把xmx_{m}xm的标签修改为yny_{n}yn并把(xm,yn)(x_{m},y_{n})(xm,yn)添加到DnoiseD_{noise}Dnoise。
PoisonGan算法
GtG_tGt:全局模型
DtrainD_{train}Dtrain:训练数据
L\mathcal{L}L:损失函数
初始化鉴别器D和生成器G。
服务器端的操作:
Step1:把全局模型参数发送给每一个参与者。
Step2:接收每一个参与者发送的更新参数。
Step3:更新全局模型。
客户端的操作:
Step1:接收全局模型参数。
Step2:如果该客户端是攻击者,使用全局模型初始化鉴别器D。
Step3:生成中毒数据,并使用梯度下降去更新攻击者的模型。
Step4:计算中毒更新,并乘上一个SSS,缩小攻击。
Step5:如果该客户端是普通客户端,更新本地参数。
Step6:把所有客户端的参数更新发送到服务器。
PoisonGAN: Generative Poisoning Attacks Against Federated Learning in Edge Computing Systems 阅读报告相关推荐
- 【COPOD】Suppressing Poisoning Attacks on Federated Learning for Medical Imaging
Suppressing Poisoning Attacks on Federated Learning for Medical Imaging 抑制针对医学影像联邦学习的毒化攻击 论文 Abstrac ...
- READ-2204 FL-WBC Enhancing Robustness against Model Poisoning Attacks in Federated Learning
READ-2204 FL-WBC Enhancing Robustness against Model Poisoning Attacks in Federated Learning from a C ...
- 【RS-Attack】Data Poisoning Attacks to Deep Learning Based Recommender Systems NDSS‘21
Data Poisoning Attacks to Deep Learning Based Recommender Systems NDSS'21 首个在基于深度学习的推荐系统中进行投毒攻击的研究.文 ...
- 《DBA: DISTRIBUTED BACKDOOR ATTACKS AGAINST FEDERATED LEARNING》阅读笔记
DBA: DISTRIBUTED BACKDOOR ATTACKS AGAINST FEDERATED LEARNING ** 本文发在ICLR 2020,针对联邦学习进行的后门攻击.其提出的方案针对 ...
- Deep Reinforcement Learning for Task Offloading in Mobile Edge Computing Systems
Deep Reinforcement Learning for Task Offloading in Mobile Edge Computing Systems 移动边缘计算系统中任务卸载的深度强化学 ...
- (翻译)DBA: DISTRIBUTED BACKDOOR ATTACKS AGAINST FEDERATED LEARNING
摘要 后门攻击旨在通过注入对抗性触发器来操纵训练数据的子集,从而使在受篡改数据集上训练的机器学习模型将在嵌入了相同触发器的测试集上进行任意(目标)错误预测.尽管联邦学习(FL)能够汇总由不同方面提供的 ...
- Data Poisoning Attacks to Deep Learning Based Recommender Systems论文解读
1 摘要 在这项工作中,作者对基于深度学习的推荐系统的数据中毒攻击进行了首次系统研究.攻击者的目标是操纵推荐系统,以便向许多用户推荐攻击者选择的目标项目.为了实现这一目标,作者将精心设计的评分注入到推 ...
- [阅读笔记1]Data Poisoning Attacks to Deep Learning BasedRecommender Systems
个人总结:本文主要通过构造一个毒药模型--用于预测假用户的评分项目,从而构造m个假用户,将假用户注入到推荐系统中,达到影响推荐系统对普通用户的推荐项目(让一个项目能尽可能多的出现在普通用户的推荐列表中 ...
- DBA: Distributed Backdoor Attacks against Federated Learning论文笔记
作者:Chulin Xie Keli Huang Pin-Yu Chen Bo Li 来源:ICLR 2020 发表时间:May 26,2020 背景: 联邦学习能够聚合各方提供的信息, ...
最新文章
- Linux0.11内核引导启动过程概述
- linux中文乱码的解决
- 《C++代码设计与重用》——2.5 浅拷贝和深拷贝
- 1013: C语言程序设计教程(第三版)课后习题6.3
- Bash中的shopt选项
- 三分钟玩转jQuery.noConflict()
- Spring5参考指南: BeanWrapper和PropertyEditor
- Linux下查看文件内容的ASCII码以检查内容的编码一致
- 大道至简第三章。感受。
- CentOS 7添加应用快捷方式到桌面
- 网络流概念及相关算法介绍
- 怎么批量修改文件后缀名?
- php文章排序,php实现的常见排序算法汇总
- 自学php多久可以工作_PHP语言自学要多久才能工作
- 【转】ORA-28040: 没有匹配的验证协议
- 零基础入门小程序,实战经验分享
- 关于HTTP提交方式之PUT
- 【服务器】XShell 使用汇总
- 一起变装吧服务器维护,影之诗12月28日服务器维护 版本更新详细内容汇总
- 将SQL Server表变成txt文件
热门文章
- Activity界面的加载和绘制
- 国内怎么使用chatGpt
- 计算机显示适配器禁用了电脑黑屏,Win10电脑禁用集成显卡后黑屏如何解决_Win10系统禁用集成显卡后黑屏解决方案...
- win8计算机配置管理模板,win8.1用户帐户配置管理图文详解
- 语义网技术综述(web3.0)
- explain用法和结果的含义
- 燃爆朋友圈!中国设计师携手,用海报为武汉加油!
- 电影解说的配音都是真人配音吗?
- xticklabel 显示下划线_[转载]matlab坐标轴属性及标注
- 在Js中使程序睡眠的sleep方法