目录

  • I. 前言
  • II. 数据集介绍
  • III. SCAFFOLD
    • 1. 模型定义
    • 2. 优化器定义
    • 3. 服务器端
    • 4. 客户端
  • IV. 完整数据及代码

I. 前言

SCAFFOLD的原理请见:ICML 2020 | SCAFFOLD:联邦学习的随机控制平均。

II. 数据集介绍

联邦学习中存在多个客户端,每个客户端都有自己的数据集,这个数据集他们是不愿意共享的。

数据集为某城市十个地区的风电功率,我们假设这10个地区的电力部门不愿意共享自己的数据,但是他们又想得到一个由所有数据统一训练得到的全局模型。

III. SCAFFOLD

算法伪代码:

1. 模型定义

客户端的模型为一个简单的四层神经网络模型:

# -*- coding:utf-8 -*-
"""
@Time: 2022/03/02 11:21
@Author: KI
@File: model.py
@Motto: Hungry And Humble
"""
from torch import nnclass ANN(nn.Module):def __init__(self, input_dim, name, B, E, lr):super(ANN, self).__init__()self.name = nameself.B = Bself.E = Eself.len = 0self.lr = lrself.loss = 0self.fc1 = nn.Linear(input_dim, 20)self.control = {}self.delta_control = {}self.delta_y = {}self.relu = nn.ReLU()self.sigmoid = nn.Sigmoid()self.dropout = nn.Dropout()self.fc2 = nn.Linear(20, 20)self.fc3 = nn.Linear(20, 20)self.fc4 = nn.Linear(20, 1)def forward(self, data):x = self.fc1(data)x = self.sigmoid(x)x = self.fc2(x)x = self.sigmoid(x)x = self.fc3(x)x = self.sigmoid(x)x = self.fc4(x)x = self.sigmoid(x)return x

2. 优化器定义

在SCAFFOLD中,本地模型的更新公式为:
yi←yi−ηl(gi(yi)+c−ci)y_i \gets y_i-\eta_l(g_i(y_i)+c-c_i)yi​←yi​−ηl​(gi​(yi​)+c−ci​)
因此,优化器定义如下:

# -*- coding:utf-8 -*-
"""
@Time: 2022/03/02 13:34
@Author: KI
@File: ScaffoldOptimizer.py
@Motto: Hungry And Humble
"""
from torch.optim import Optimizerclass ScaffoldOptimizer(Optimizer):def __init__(self, params, lr, weight_decay):defaults = dict(lr=lr, weight_decay=weight_decay)super(ScaffoldOptimizer, self).__init__(params, defaults)def step(self, server_controls, client_controls, closure=None):for group in self.param_groups:for p, c, ci in zip(group['params'], server_controls.values(), client_controls.values()):if p.grad is None:continuedp = p.grad.data + c.data - ci.datap.data = p.data - dp.data * group['lr']

核心代码为:

dp = p.grad.data + c.data - ci.data
p.data = p.data - dp.data * group['lr']

3. 服务器端

服务器端收发模型参数,并更新全局控制变量:

class Scaffold:def __init__(self, options):self.C = options['C']self.E = options['E']self.B = options['B']self.K = options['K']self.r = options['r']self.input_dim = options['input_dim']self.lr = options['lr']self.clients = options['clients']self.nn = ANN(input_dim=self.input_dim, name='server', B=self.B, E=self.E, lr=self.lr).to(device)# self.control = torch.zeros_like(self.nn.named_parameters)for k, v in self.nn.named_parameters():self.nn.control[k] = torch.zeros_like(v.data)self.nn.delta_control[k] = torch.zeros_like(v.data)self.nn.delta_y[k] = torch.zeros_like(v.data)self.nns = []for i in range(self.K):temp = copy.deepcopy(self.nn)temp.name = self.clients[i]temp.control = copy.deepcopy(self.nn.control)  # citemp.delta_control = copy.deepcopy(self.nn.delta_control)  # citemp.delta_y = copy.deepcopy(self.nn.delta_y)self.nns.append(temp)def server(self):for t in range(self.r):print('round', t + 1, ':')# samplingm = np.max([int(self.C * self.K), 1])index = random.sample(range(0, self.K), m)# dispatchself.dispatch(index)# local updatingself.client_update(index)# aggregationself.aggregation(index)return self.nndef aggregation(self, index):s = 0.0for j in index:# normals += self.nns[j].len# computex = {}c = {}# initfor k, v in self.nns[0].named_parameters():x[k] = torch.zeros_like(v.data)c[k] = torch.zeros_like(v.data)for j in index:for k, v in self.nns[j].named_parameters():x[k] += self.nns[j].delta_y[k] / len(index)  # averagingc[k] += self.nns[j].delta_control[k] / len(index)  # averaging# update x and cfor k, v in self.nn.named_parameters():v.data += x[k].data  # lr=1self.nn.control[k].data += c[k].data * (len(index) / self.K)def dispatch(self, index):for j in index:for old_params, new_params in zip(self.nns[j].parameters(), self.nn.parameters()):old_params.data = new_params.data.clone()def client_update(self, index):  # update nnfor k in index:self.nns[k] = train(self.nns[k], self.nn)

4. 客户端

客户端更新本地模型:

def train(ann, server):ann.train()Dtr, Dte = nn_seq_wind(ann.name, ann.B)ann.len = len(Dtr)print('training...')loss_function = nn.MSELoss().to(device)loss = 0x = copy.deepcopy(ann)optimizer = ScaffoldOptimizer(ann.parameters(), lr=ann.lr, weight_decay=1e-4)for epoch in range(ann.E):for (seq, label) in Dtr:seq = seq.to(device)label = label.to(device)y_pred = ann(seq)loss = loss_function(y_pred, label)optimizer.zero_grad()loss.backward()optimizer.step(server.control, ann.control)print('epoch', epoch, ':', loss.item())# update c# c+ <- ci - c + 1/(E * lr) * (x-yi)# save anntemp = {}for k, v in ann.named_parameters():temp[k] = v.data.clone()for k, v in x.named_parameters():local_steps = ann.E * len(Dtr)ann.control[k] = ann.control[k] - server.control[k] + (v.data - temp[k]) / (local_steps * ann.lr)# ann.control[k] = ann.control[k] - server.control[k] + (v.data - temp[k]) / (ann.E * ann.lr)ann.delta_y[k] = temp[k] - v.dataann.delta_control[k] = ann.control[k] - x.control[k]return ann

模型更新结束后需要更新控制变量,控制变量的更新公式为:

这里KKK为本地更新的轮数,ηl\eta_lηl​为学习率。对应代码为:

ann.control[k] = ann.control[k] - server.control[k] + (v.data - temp[k]) / (ann.E * ann.lr)

控制变量更新结束后,计算模型和控制变量前后的差值:

ann.delta_y[k] = temp[k] - v.data
ann.delta_control[k] = ann.control[k] - x.control[k]

IV. 完整数据及代码

后面将陆续公开~

联邦学习算法SCAFFOLD的PyTorch实现相关推荐

  1. 虚拟专题:联邦学习 | 联邦学习算法综述

    来源:大数据期刊 联邦学习算法综述 王健宗1 ,孔令炜1 ,黄章成1 ,陈霖捷1 ,刘懿1 ,何安珣1 ,肖京2 1. 平安科技(深圳)有限公司,广东 深圳 518063 2. 中国平安保险(集团)股 ...

  2. 个性化联邦学习算法框架发布,赋能AI药物研发

    摘要:近期,中科院上海药物所.上海科技大学联合华为云医疗智能体团队,在Science China Life Sciences 发表题为"Facing Small and Biased Dat ...

  3. 群体智能中的联邦学习算法综述

    摘要 群体智能是在互联网高速普及下诞生的人工智能新范式.然而,数据孤岛与数据隐私保护问题导致群体间数据共享困难,群体智能应用难以构建.联邦学习是一类新兴的打破数据孤岛.联合构建群智模型的重要方法.首先 ...

  4. 联邦学习算法介绍-FedAvg详细案例-Python代码获取

    联邦学习算法介绍-FedAvg详细案例-Python代码获取 一.联邦学习系统框架 二.联邦平均算法(FedAvg) 三.联邦随梯度下降算法 (FedSGD) 四.差分隐私随联邦梯度下降算法 (DP- ...

  5. 【联邦学习】联邦学习算法分类总结

    [联邦学习]联邦学习算法分类总结 横向联邦学习.纵向联邦学习和联邦迁移学习 横向联邦学习 纵向联邦学习 联邦迁移学习 基于机器学习算法的联邦学习分类 联邦线性算法 联邦树模型 联邦支持向量机 联邦深度 ...

  6. 杭州内推 | 之江实验室招聘机器学习/强化学习/联邦学习算法实习生

    合适的工作难找?最新的招聘信息也不知道? AI 求职为大家精选人工智能领域最新鲜的招聘信息,助你先人一步投递,快人一步入职! 之江实验室 之江实验室成立于2017年9月,坐落于杭州城西科创大走廊核心地 ...

  7. 联邦学习算法初探——q-FFL

    基本简介 Fair Resource Allocation in Federated Learning一文中针对普通的FedAvg算法对于单纯最小化聚合损失函数可能会对某些设备带来优势或者劣势.q-F ...

  8. ICML 2020 | SCAFFOLD:联邦学习的随机控制平均

    目录 前言 1. 引言 2. 问题定义 3. FedAvg 4. SCAFFOLD 有效性分析 5. 实验 5.1 模拟数据集 5.2 EMNIST数据集 5.3 结论 6. 总结 前言 题目: SC ...

  9. openssl 添加自定义算法_GitHub:用PyTorch实现17种深度强化学习算法

    [新智元导读]深度强化学习已经在许多领域取得了瞩目的成就,并且仍是各大领域受热捧的方向之一.本文推荐一个用 PyTorch 实现了 17 种深度强化学习算法的教程和代码库,帮助大家在实践中理解深度 R ...

最新文章

  1. i基准指令集 mips_mips addiu
  2. logic多分类的两种类别
  3. Android什么是函数,什么是函数响应式编程(JavaAndroid版本)
  4. redis 慢查询日志
  5. 关于USB-AUDIO使用ALSA编程的一点问题
  6. 屏上有一层紫色(正在找原因)
  7. 查看linux系统的sp,查看linux系统版本命令
  8. js中改变this的指向,有apply、call和bind这三种方法
  9. Loadrunner11安装_简单使用基础教程
  10. yolo v5 代码阅读记录
  11. Study「Word2016」:论文公式编辑时,编号右对齐
  12. Android 音视频深入 十八 FFmpeg播放视频,有声音(附源码下载)
  13. charles基础使用
  14. 中国太平人寿保险承保系统采用ILOG JRules
  15. python自动群发邮件_24.python之自动群发邮件(1)
  16. UI设计师与服务定律
  17. json与j对象的关系和与对象的相互转换
  18. 队列----循环队列
  19. 1.1程序设计(C语言基础)
  20. 原生js实现公历转农历

热门文章

  1. Origin学生版的获取方法和安装方法
  2. 合肥达内培训php,合肥PHP开发培训班介绍PHP7是什么?
  3. C++ 【vector模拟实现】
  4. 设计模式(一)——命令模式
  5. linux卸载第三方软件下载,debian/ubuntu软件安装卸载方法
  6. FF新推荐/Flash Player弹广告flash helper service流氓广告自动衍生等问题的解决
  7. 火热流行的前后端低代码开源项目
  8. VCD(俗称影音光碟)
  9. 计算机学习网址【快乐学习,持续更新。。。】
  10. 内蒙古科技大学计算机专业校企合作好不好,校企合作真的靠谱吗 校企合作好不好...