Towards Byzantine-resilient Learning in Decentralized Systems

去中心化系统中的拜占庭弹性学习

论文

Abstract

消除 集中式参数服务器(PS)可以有效解决隐私、性能瓶颈和单点故障等问题。

本文:基于拜占庭容错的去中心化学习算法UBAR

为良性节点提供一个统一的拜占庭弹性聚合规则,用于在每次训练迭代中选择有用的参数更新并过滤掉恶意的参数更新。

一、INTRODUCTION

联邦学习缺陷:

  1. 单点故障,中心服务器崩溃造成整个系统崩溃。
  2. 集中式参数服务器成为性能瓶颈。

去中心化可以展现DL应用的巨大潜力。

分布式学习场景中拜占庭将军问题原因:

  1. 不可靠边缘设备发送到参数影响全局模型。
  2. 物联网设备和网络复杂且易受攻击。
  3. 袭击后果严重,拜占庭攻击改变训练过程影响最终模型。

本文: (1)分析分散式学习中的拜占庭将军问题与相应漏洞。 (2)具有拜占庭容错的分散学习系统的可能解决方案。

基于PS的系统拜占庭弹性方法用于分散式学习有难度:

  • 易受到精心设计的拜占庭攻击,计算开销大,不切实际的需求的可伸缩性问题(额外要求验证数据集)
  • 联邦学习的每个节点都是一个PS,结构有差异,无法直接应用。

UBAR两个阶段
1. 列出一组候选节点:
每个良性节点根据其参数与自身参数的距离选择一些潜在良性节点。
2. 用于选择最终参数
每个良性节点使用其训练样本从第一阶段开始测试参数的性能,选择训练质量最好的参数。

UBAR用分布式学习特点解决局限性

每个节点既是 worker 又是PS,在基于PS的系统中,使用自己的参数作为baseline (阶段一),而不是邻居节点的平均值或中值,有效保证 baseline 不被操控,每个节点还可以评估其训练样本质量(阶段二)。

UBAR还提升了 8-30X性能

二、BACKGROUND AND RELATED WORK

A. Byzantine-resilient Centralized Learning
  1. 对上传的梯度进行聚类,
    基于矢量距离检测异常值。比如:Krum,中值,Bulyan

脆弱性:两个梯度间的距离不能代表性能相似,可以创建恶意梯度,与良性梯度无法区分。

  1. 在额外的验证数据集上评估每个上传的梯度。
    比如:Zeno(同步学习)、Zeno++(异步学习)。 要求PS有验证数据集,这种要求不切实际,评估梯度性能的计算开销很大。

  2. 根据历史记录选择良性梯度和节点。
    比如:隐藏马尔可夫模型(学习分布式训练中参数更新的质量)、利用与worker历史交互作为经验,通过强化学习识别拜占庭攻击
    脆弱性:攻击者最开始假装良性,最后几次迭代上传恶意参数,学习到的文件就无法预测未来迭代中的恶意行为。

B. Byzantine-resilient Decentralized Learning

去中心化的分布式学习,每次迭代中:

  1. 每个worker向相邻节点广播参数向量,接收邻居节点的估计值
  2. 利用本地数据训练模型
  3. 与邻居节点的估计进行聚合,更新模型

拜占庭弹性分布式学习研究处于初级阶段。

拜占庭弹性去中心化:

  • ByRDie:将修剪中值算法应用于坐标下降优化算法
  • BRIDGE :将修剪中值算法应用于带有SGD的分布式学习
  • RD-SVM:比较邻居节点的损失识别过滤拜占庭节点。使用铰损法,每次迭代所有数据都要检测,适用于线性分类器

本文主要研究主流SGD算法和批量训练特征的DL模型。

三、 SYSTEM MODEL OF DECENTRALIZED LEARNING

四、BYZANTINE ATTACK IN DECENTRALIZED LEARNING

从理论上论证了分散学习系统中拜占庭攻击的可行性和严重性

五、BYZANTINE-RESILIENT SOLUTION

A. Byzantine-resilient Aggregation Rule

该规则应保证所有良性节点收敛到没有拜占庭节点学习的最优估计

B. UBAR

三个问题:

  1. 集中式系统的拜占庭问题解决方案套用到分布式系统中仍然有缺陷。
  2. 分布式系统对收敛要求更高,服务器收敛不代表所有良性节点收敛。
  3. 分布式系统中的拜占庭节点数量不定,而集中式系统假定攻击者数量固定。


如图,UBAR两个阶段:
1. 第一阶段
每个良性节点从他的邻居中选择一个潜在良性节点的候选池。
比较每个相邻节点与自身估计值之间的欧氏距离,进行选择。

创新:将自身的参数作为baseline,集中式系统通常使用邻居参数的中值或者平均值。

2. 第二阶段
每个良性节点进一步从候选池中选择最终节点进行估计更新。
重用训练样本作为验证集,评估邻居节点的性能 (损失函数) ,选择损失值小于其自身估计的估计值,取平均值作为最终更新值。

创新:重用训练样本对邻居的参数进行性能评估,无需额外验证数据集进行评估。 阶段1帮助阶段2减少计算成本(减少用于评估的候选节点的大小),阶段2帮助阶段1对抗高级攻击。

xk,ix_{k,i}xk,i​ 是节点 iii 在第 kkk 次迭代处的估计,lk,il_{k,i}lk,i​ 是随机选择的数据样本上的估计值的损失,ρi\rho_iρi​ 是节点 iii 的良性邻居的比率,lk,i=l(xk,i,ξk,i)l_{k,i} = l(x_{k,i},\xi_{k,i})lk,i​=l(xk,i​,ξk,i​)

估计值从 x0,i=x0x_{0,i} = x_0x0,i​=x0​ 开始,在第 kkk 次迭代中,节点 iii 向其邻居广播估计值,邻居接受,随机选择训练数据样本 ξk,i\xi_{k,i}ξk,i​ 并计算损失和梯度(3-4行),而后进行两个阶段的估计值选择。

  • 首先计算 xk,ix_{k,i}xk,i​ 和邻居 估计值 之间的欧几里得距离,并选择距离最小的 ρi∣Ni∣\rho_i| \mathcal{N}_i|ρi​∣Ni​∣ 邻居(5-7行)
  • 对每个估计值 xk,j,j∈Nk,isx_{k,j},j \in \mathcal{N}_{k,i}^sxk,j​,j∈Nk,is​ 节点 iii 计算 xk,jx_{k,j}xk,j​ 在 ξk,i\xi_{k,i}ξk,i​ 上的损失,选择与 xk,ix_{k,i}xk,i​ 性能相似或者更好的的估计值(8-14行)
  • 计算选定节点的平均值,使用GUF更新最终估计值(15-16行)

C. Complexity Analysis

与现有聚合规则比,复杂度低,效率高

六、EXPERIMENTS

A. Experimental Setup and Configurations

  1. Datasets.
    MNIST 、CIFAR10
    训练卷积神经网络CNN,两个最大池化层,三个完全连接层。
    batch size 256
    衰减学习率 λ(k)=λ02020+k\lambda(k) = \lambda_0 \frac{20} {20+k}λ(k)=λ0​20+k20​
    epochs:kkk
    初始学习率: λ0=0.05\lambda_0 = 0.05λ0​=0.05

  2. Implementation of decentralized systems.
    节点 iii 的拜占庭节点比小于 1−ρi1-\rho_i1−ρi​
    良性节点的 ρi=0.4\rho_i = 0.4ρi​=0.4

  3. Baselines
    考虑了三种拜占庭弹性解决方案,Krum、边际中值、Bulyan
    中心化分布式系统中通常假设最大拜占庭攻击数量,在去中心化分布式系统中不成立,因为每个良性节点的拜占庭节点数量是变化的。
    n^i\hat{n}_in^i​ 是节点 iii 的拜占庭节点数
    ρcentral\rho_{central}ρcentral​ 是集中分布式防御中允许的最大拜占庭节点比
    ⌈⋅⌉\lceil \cdot \rceil⌈⋅⌉ 是ceil函数

  4. DKrum.

  5. Dmedian.
    用接收到的估计值替换梯度。

  6. DBulyan.
    迭代使用DKrum.
    还实现BRIDEGE进行比,令GUF中的 α=0.5\alpha = 0.5α=0.5,考虑没有拜占庭节点的分散式系统,使用平均聚合规则。视为最优模型

  7. Performance Metric.
    测量训练好的模型在每个良性节点上的进度,报告所有节点中最差的精度代表防御有效性。

B. Convergence

作为聚合规则,基本功能是实现一致收敛,每个良性节点中的模型必须收敛到正确的节点。

  1. Network size.
    节点设置为30 40 50
    DBulyan和UBAR在MNIST和CIFAR10上具有与baseline相同的收敛性。

  2. Network connection ratio.
    节点数30
    连接比 0.2 0.4 0.6
    连接较重时,需要花费更多的开销以达成共识。
    连接比0.6,UBAR有更好的收敛性能。

C. Byzantine Fault Tolerance

不同防御策略在各种拜占庭攻击下的性能。
良性节点数30 ,连接比0.4
不同拜占庭比率:0.1,0.3,0.5

  1. Guassian attack.
    每次迭代恶意节点向邻居广播遵循高斯分布的随机估计向量。

  1. Bit-flip attack.
    恶意节点向邻居广播翻转符号的向量

  1. Sophisticated attack.
    对手有能力从其他邻居节点收集所有上传的估计。然后,它可以仔细设计自己的估计,使其不被良性的估计检测到,同时仍然影响训练过程。

D. Computation Cost

UBAR比DKrum快8倍,比DBulyan快30倍
收敛性比Dmedian和BRIDGE强。

故,UBAR是拜占庭弹性最强,计算开销可接受的最优解。

七、DISCUSSION

  1. Ratio of Benign Neighbors.
    每个良性节点需要预设邻居良性节点比例。
  2. Non-IID Scenario.
    非同构场景是以后研究方向。

八、CONCLUSION

在不同的系统配置下,UBAR能够以较低的计算开销抵抗简单和复杂的拜占庭攻击

【UBAR】Towards Byzantine-resilient Learning in Decentralized Systems相关推荐

  1. 【Paper】2021_Distributed Consensus Tracking of Networked Agent Systems Under Denial-of-Service Attack

    Y. Wan, G. Wen, X. Yu and T. Huang, "Distributed Consensus Tracking of Networked Agent Systems ...

  2. 【论文阅读】 Privacy-Preserving Byzantine-Robust Federated Learning via Blockchain Systems

    这是发表在2022 IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY(TIFS)上的一篇文章 目录 abstract 主要贡献 II. R ...

  3. 【运动控制】机械臂的分散控制(Decentralized Control)

    本篇博文以二连杆模型为例,具体参见->[机器人算法]机器人动力学.运动学和基于动力学模型的仿真与控制. 分散控制属于关节空间的多关节控制. 分散控制有以下假设: 惯量不太大,可以用等效惯量代替: ...

  4. 【UWB】ELM,Extreme Learning Machine 极限学习机

    文章目录 例子 1 例子 2 Ref. 例子 1 % 任务2: ELM 网络 % Date: 2021-10-15 % Author: Zhao-Jichao clear clc%% 训练 % 导入数 ...

  5. 【论】A Deep Reinforcement Learning Framework for Rebalancing Dockless Bike Sharing Systems

    A Deep Reinforcement Learning Framework for Rebalancing Dockless Bike Sharing Systems 摘要 自行车共享为旅行提供了 ...

  6. 【阅读】Variational Adversarial Active Learning

    摘要: 通常情况下,由于标记成本高,限制了深度学习技术的应用领域,标记大量数据具有挑战性.主动学习(AL)通过在未标记池中查询需要注释的信息量最大的样本来解决这个问题.近年来研究的人工智能有两个很有前 ...

  7. 【AirCompWeiszfeld】Byzantine-Resilient Federated Machine Learning via Over-the-Air Computation

    Byzantine-Resilient Federated Machine Learning via Over-the-Air Computation 通过空中计算的拜占庭弹性联合机器学习 论文 Ab ...

  8. 【Paper】2021_Synchronization of Resilient Complex Networks Under Attacks

    P. Wang, G. Wen, X. Yu, W. Yu and Y. Wan, "Synchronization of Resilient Complex Networks Under ...

  9. 【译】Privacy and machine learning: two unexpected allies

    在机器学习的许多应用中,例如用于医疗诊断的机器学习,我们希望具有机器学习算法,其不记住关于训练集的敏感信息,诸如个体患者的特定医疗历史. 差分隐私是衡量算法提供的隐私保证的框架. 通过差异隐私的镜头, ...

最新文章

  1. VS遇到的各种bug
  2. python自带的集成开发环境是什么-Python的10大集成开发环境和代码编辑器(指南)...
  3. bzoj1607: [Usaco2008 Dec]Patting Heads 轻拍牛头
  4. 计算机视觉开源库OpenCV之查找轮廓函数cv2.findContours()介绍
  5. 【数据结构与算法】之深入解析“学生出勤记录II”的求解思路与算法示例
  6. mysql视图表怎么设置约束_MySQL一一sql的视图、索引、约束
  7. UAC执行批处理,进行提示
  8. c语言之函数存储属性,C语言:链接属性与存储类型
  9. WP7 开发(十五)输入范围和文本框
  10. 将现有MFC应用程序迁移到BCGControlBar VC界面库中
  11. 数值优化:计算基本理论
  12. 【数据结构和算法笔记】插入排序(直接插入排序,折半插入排序)
  13. opencv 提取图像线条 霍夫线检测
  14. JSP的自定义标签(三)之带标签体的标签
  15. uni-app 基于 Promise 的 request 请求封装
  16. 论文阅读2--《融合多因素的短时交通流预测研究》
  17. Scala下载及安装(Windows)以及Idea中Scala项目的创建
  18. ACM Plan UVa - 10102 The path in the colored field
  19. GTQ服务多层次金融衍生品市场,促进社会经济繁荣
  20. 电子取证-----仿真技术

热门文章

  1. 避免优盘中毒或传播病毒的三个方法
  2. PMP是什么?看完这篇秒懂!
  3. 2023四大服装管理软件,第1款最受欢迎!
  4. 再次给力分享一对一直播脚本直播伴侣松鼠直播管家后台协议发送xp框架安卓原生hook源码
  5. 李岳恒:高可用的以太坊智能合约下的Token经济即将来临
  6. 22点到凌晨5点是几个小时_22点到凌晨5点是几个小时_寅时是几点到几点:3点-5点(24小时凌晨3时~凌晨5时)......
  7. 没那么难,不信你试试
  8. LeetCode(Array)1313. Decompress Run-Length Encoded List
  9. Python带进度条的小说爬虫(笔趣网爬小说—简约版)
  10. ESP32 microPython开发入门