引入:

传统数据训练方式,用户将本地数据提交给可信云服务器进行统一集中并训练:①如何保证用户本地数据的隐私性?
②如何保证计算成本和通信开销?

联邦学习的提出,可以较好地解决上述问题。


背景介绍:

分布式训练方法,把资料留在本地端,打造出可部署至上百万支手机的输入字推荐模型。
①个别用户从中央主机下载一套模型,接着在数以万计的用户端,根据用户端的使用行为,来训练Local端模型。

②训练好后,用户手机会上传模型权重(也称参数)至中央主机,中央主机收集一定数量的权重后,就会聚合,计算出一个优化过的权重,再回放到用户端手机,进行下一轮训练。

③这个过程会不断重复,直到模型达到理想的表现。在这过程中,只会上传模型参数,完全不会上传用户资料。


主要贡献:

①引入FederatedAveraging算法,将每个客户端的局部随机梯度下降(SGD)与执行模型平均的服务器相结合
②针对非独立同分布数据集和通信问题进行解决

非独立同分布数据集:

通信问题:
(1)并行化,采用更多的用户参与训练优化
(2)增加每个用户的计算开销,减少通信轮数


联邦平均:(FedAVG算法)

FedAvg算法的计算开销与三个参数相关:
1、C:每轮通信内,执行计算的用户所占的比例(0≤C≤1)
   C=1表示所有用户均参与联邦优化,
   C*K表示参与用户数量,
   C=0表示有且仅有1个用户均参与联邦优化
2、E:每轮通信内,每个用户对其本地数据集进行的训练迭代次数(E≥1)
3、B:用户更新训练本地数据集的小批量大小(B≥1)意思为每次训练给多大的数据


实验:

目标:为了评估本文的联邦优化方法,而不是追求最高的分类精度
论文是围绕图像分类开展实验。

①对于每一个任务,选择一个足够小的代理数据集,研究FedAvg算法的超参数。
②介绍了CIFAR-10图像分类的分类基准。
③证明FedAvg在真实问题和自然数据划分中的有效性,评估大型的数据集任务。

MNIST手写数据集识别:

两个网络:
1、多层感知机:2个隐藏层,200个节点,激活函数用Relu
2、CNN:5x5的卷积层(第一层有32个通道,第二层64个,每一层有2x2的最大池化。一个512个节点的全连接层,总共1663370个参数

为了学习联邦优化,探索数据怎样分布在客户端。
在客户端划分MNIAST数据集:
1、IID:数据随机打乱,划分到100个客户端,每个客户端有600张图片
2、非IID:首先按数字标签对数据进行排序,将其划分为大小为300的200个碎片,指定100个用户,为每个用户分配2个碎片(即100×600)

联邦环境下数据集:

将现有的数据集按照非独立同分布划分:
带标签样本的生成分布看可以表示为
P(x,y)—>P(x,y)=P(x|y)P(y)—>估计P(y)的开销小—>按照样本标签分布划分
K个类别标签,N个client,每个类别标签的样本需要按照不同的比例划分在不同的client上

PS:上学期课程中汇报的论文,做的ppt,记录一下方便查看

Communication-Efficient Learning of Deep Networks form Decentralized Data相关推荐

  1. 联邦学习笔记—《Communication-Efficient Learning of Deep Networks from Decentralized Data》

    摘要: Modern mobile devices have access to a wealth of data suitable for learning models, which in tur ...

  2. 阅读笔记(Communication-Efficient Learning of Deep Networks from Decentralized Data)

    阅读笔记(Communication-Efficient Learning of Deep Networks from Decentralized Data) 动机 联邦平均 实验结果 MINIST优 ...

  3. 《Communication-Efficient Learning of Deep Networks from Decentralized Data》论文阅读

    4.29 天气:阴. 看论文看不懂,所以找回来这篇经典的FedAvg看看. AISTATS 2017. <Communication-Efficient Learning of Deep Net ...

  4. 论文笔记 Communication-Efficient Learning of Deep Networks from Decentralized Data

    论文题目:<Communication-Efficient Learning of Deep Networks from Decentralized Data> 时间:联邦学习由谷歌在20 ...

  5. 联邦学习开山之作:Communication-Efficient Learning of Deep Networks from Decentralized Data 带你走进最初的联邦学习 论文精读

    原文链接:Communication-Efficient Learning of Deep Networks from Decentralized Data (mlr.press) 该论文是最早提出联 ...

  6. Communication-Efficient Learning of Deep Networks from Decentralized Data 论文笔记

      本文出自论文Communication-Efficient Learning of Deep Networks from Decentralized Data,本文提出了一种基于迭代模型平均的深层网 ...

  7. 【FL论文阅读】Communication-Efficient Learning of Deep Networks from Decentralized Data

    一.Intro 对于Federated Optimization来说,其同传统Distributed optimization问题有下面几点区别 a. 数据非独立同分布Non-IID,对于任意特定节点 ...

  8. 联邦学习学习笔记——论文理解《Communication-Efficient Learning of Deep Networks from Decentralized Data》

    Google - Federated Learning

  9. Communication-Efficient Learning of Deep Networks from Decentralized Data

    international conference on artificial intelligence and statistics Summary 当前机器学习模型训练中存在着数据隐私保护问题,所以 ...

最新文章

  1. 内存 : DDR2与DDR
  2. python利器怎么编程-bluepy 一款python封装的BLE利器简单介绍
  3. Python Django模板页面自定义过滤器实现md语法及字符串切割代码示例
  4. java重命名sheet失败_java jxl excel 数据导出 重新命名无效的工作表名称 | 学步园...
  5. pandas基础操作
  6. 十大经典排序算法(下)
  7. jenkins 手动执行_Jenkins Git client插件命令执行漏洞(CVE201910392)
  8. php实现url伪静态化,全过程详解
  9. 一、Ajax跨域访问
  10. 关于数组相关乱七八糟
  11. 用深度强化学习玩atari游戏_深度强化学习从入门到大师:以刺猬索尼克游戏为例讲解PPO(第六部分)...
  12. Erlang中的record与宏
  13. WebServer服务器开发的基本逻辑
  14. ES文件浏览器局域网传输文件分析
  15. MFC学习笔记整理:002_腾讯游戏连连看外挂制作(一)
  16. matlab动图启动,MATLAB制作动图或视频
  17. 图像处理——使用模板对矩阵进行中值滤波(中值滤波模板)
  18. TileMap插件学习
  19. AI 入行那些事儿(13)人工智能的三类技术岗位
  20. 如何使用Xcode7来调试iOS10设备

热门文章

  1. 华硕新款 ROG 幻 16 星空版 评测怎么样
  2. CCPC-WannaFly-Camp 1057: Kimi to Kanojo to Kanojo no Koi(構造)
  3. 计算机管理看板方式,电子看板解决方案
  4. html常用文本标签
  5. 用Python简单模拟《原神》抽卡系统
  6. 强化学习待解决问题和主流Trick整理
  7. 如何提取一个转录本的3'UTR区域的序列
  8. js中的关键字总结呢
  9. 产品经理零基础怎么入门?必看经验
  10. Java 多线程学习一(入门)—— 久违的 Java 多线程终于肝出来了!