Communication-Efficient Learning of Deep Networks form Decentralized Data
引入:
传统数据训练方式,用户将本地数据提交给可信云服务器进行统一集中并训练:①如何保证用户本地数据的隐私性?
②如何保证计算成本和通信开销?
联邦学习的提出,可以较好地解决上述问题。
背景介绍:
分布式训练方法,把资料留在本地端,打造出可部署至上百万支手机的输入字推荐模型。
①个别用户从中央主机下载一套模型,接着在数以万计的用户端,根据用户端的使用行为,来训练Local端模型。
②训练好后,用户手机会上传模型权重(也称参数)至中央主机,中央主机收集一定数量的权重后,就会聚合,计算出一个优化过的权重,再回放到用户端手机,进行下一轮训练。
③这个过程会不断重复,直到模型达到理想的表现。在这过程中,只会上传模型参数,完全不会上传用户资料。
主要贡献:
①引入FederatedAveraging算法,将每个客户端的局部随机梯度下降(SGD)与执行模型平均的服务器相结合
②针对非独立同分布数据集和通信问题进行解决
非独立同分布数据集:
通信问题:
(1)并行化,采用更多的用户参与训练优化
(2)增加每个用户的计算开销,减少通信轮数
联邦平均:(FedAVG算法)
FedAvg算法的计算开销与三个参数相关:
1、C:每轮通信内,执行计算的用户所占的比例(0≤C≤1)
C=1表示所有用户均参与联邦优化,
C*K表示参与用户数量,
C=0表示有且仅有1个用户均参与联邦优化
2、E:每轮通信内,每个用户对其本地数据集进行的训练迭代次数(E≥1)
3、B:用户更新训练本地数据集的小批量大小(B≥1)意思为每次训练给多大的数据
实验:
目标:为了评估本文的联邦优化方法,而不是追求最高的分类精度
论文是围绕图像分类开展实验。
①对于每一个任务,选择一个足够小的代理数据集,研究FedAvg算法的超参数。
②介绍了CIFAR-10图像分类的分类基准。
③证明FedAvg在真实问题和自然数据划分中的有效性,评估大型的数据集任务。
MNIST手写数据集识别:
两个网络:
1、多层感知机:2个隐藏层,200个节点,激活函数用Relu
2、CNN:5x5的卷积层(第一层有32个通道,第二层64个,每一层有2x2的最大池化。一个512个节点的全连接层,总共1663370个参数
为了学习联邦优化,探索数据怎样分布在客户端。
在客户端划分MNIAST数据集:
1、IID:数据随机打乱,划分到100个客户端,每个客户端有600张图片
2、非IID:首先按数字标签对数据进行排序,将其划分为大小为300的200个碎片,指定100个用户,为每个用户分配2个碎片(即100×600)
联邦环境下数据集:
将现有的数据集按照非独立同分布划分:
带标签样本的生成分布看可以表示为
P(x,y)—>P(x,y)=P(x|y)P(y)—>估计P(y)的开销小—>按照样本标签分布划分
K个类别标签,N个client,每个类别标签的样本需要按照不同的比例划分在不同的client上
PS:上学期课程中汇报的论文,做的ppt,记录一下方便查看
Communication-Efficient Learning of Deep Networks form Decentralized Data相关推荐
- 联邦学习笔记—《Communication-Efficient Learning of Deep Networks from Decentralized Data》
摘要: Modern mobile devices have access to a wealth of data suitable for learning models, which in tur ...
- 阅读笔记(Communication-Efficient Learning of Deep Networks from Decentralized Data)
阅读笔记(Communication-Efficient Learning of Deep Networks from Decentralized Data) 动机 联邦平均 实验结果 MINIST优 ...
- 《Communication-Efficient Learning of Deep Networks from Decentralized Data》论文阅读
4.29 天气:阴. 看论文看不懂,所以找回来这篇经典的FedAvg看看. AISTATS 2017. <Communication-Efficient Learning of Deep Net ...
- 论文笔记 Communication-Efficient Learning of Deep Networks from Decentralized Data
论文题目:<Communication-Efficient Learning of Deep Networks from Decentralized Data> 时间:联邦学习由谷歌在20 ...
- 联邦学习开山之作:Communication-Efficient Learning of Deep Networks from Decentralized Data 带你走进最初的联邦学习 论文精读
原文链接:Communication-Efficient Learning of Deep Networks from Decentralized Data (mlr.press) 该论文是最早提出联 ...
- Communication-Efficient Learning of Deep Networks from Decentralized Data 论文笔记
本文出自论文Communication-Efficient Learning of Deep Networks from Decentralized Data,本文提出了一种基于迭代模型平均的深层网 ...
- 【FL论文阅读】Communication-Efficient Learning of Deep Networks from Decentralized Data
一.Intro 对于Federated Optimization来说,其同传统Distributed optimization问题有下面几点区别 a. 数据非独立同分布Non-IID,对于任意特定节点 ...
- 联邦学习学习笔记——论文理解《Communication-Efficient Learning of Deep Networks from Decentralized Data》
Google - Federated Learning
- Communication-Efficient Learning of Deep Networks from Decentralized Data
international conference on artificial intelligence and statistics Summary 当前机器学习模型训练中存在着数据隐私保护问题,所以 ...
最新文章
- 内存 : DDR2与DDR
- python利器怎么编程-bluepy 一款python封装的BLE利器简单介绍
- Python Django模板页面自定义过滤器实现md语法及字符串切割代码示例
- java重命名sheet失败_java jxl excel 数据导出 重新命名无效的工作表名称 | 学步园...
- pandas基础操作
- 十大经典排序算法(下)
- jenkins 手动执行_Jenkins Git client插件命令执行漏洞(CVE201910392)
- php实现url伪静态化,全过程详解
- 一、Ajax跨域访问
- 关于数组相关乱七八糟
- 用深度强化学习玩atari游戏_深度强化学习从入门到大师:以刺猬索尼克游戏为例讲解PPO(第六部分)...
- Erlang中的record与宏
- WebServer服务器开发的基本逻辑
- ES文件浏览器局域网传输文件分析
- MFC学习笔记整理:002_腾讯游戏连连看外挂制作(一)
- matlab动图启动,MATLAB制作动图或视频
- 图像处理——使用模板对矩阵进行中值滤波(中值滤波模板)
- TileMap插件学习
- AI 入行那些事儿(13)人工智能的三类技术岗位
- 如何使用Xcode7来调试iOS10设备