顶会论文笔记:联邦学习——ATPFL: Automatic Trajectory Prediction Model Design under Federated Learning Framework
ATPFL: Automatic Trajectory Prediction Model Design under Federated Learning Framework
文章目录
- ATPFL: Automatic Trajectory Prediction Model Design under Federated Learning Framework
- 论文结构
- 一、摘要核心
- 二、Introduction
- 1. 问题:TP数据孤岛
- 2. 解决方式
- 3. 上述方式的两大挑战
- 4. 本文的目标
- 5. 主要贡献
- 二、Related Works
- 1. 轨迹预测模型(TP模型)
- 2. 联邦训练方法
- 3. 神经结构搜索(NAS)算法
- 三、Our Approach
- 1. TP模型的自动设计
- 2. TP模型的联合训练
- 四、Experiments
- 1. 实验设置
- 2. 性能评估
- 3. 消融实验
- 五、Conclusion and Future Works
【ATPFL帮助用户联合多源轨迹数据集,自动设计和训练强大的TP轨迹预测模型】
论文链接: link
论文结构
Abstract
1. Introduction
2. Related Works
3. Our Approach
4. Experiments
5. Conclusion and Future Works
一、摘要核心
背景介绍:
好:
轨迹预测模型(TP)在计算机视觉和机器人技术领域取得了很大的成功
不好:
但是它的架构和训练方案的设计需要繁重的人工工作和领域知识,对普通用户来说并不友好。
现有的工作忽略了联邦学习场景,没有充分利用具有丰富实际场景的分布式多源数据集来学习更强大的TP模型。
文章亮点:
弥补了上述缺陷,提出ATPFL来帮助用户联合多源轨迹数据集,来自动设计和训练一个强大的TP模型。
文章思想:
先通过分析和总结现有的工作,建立一个有效的TP搜索空间;
然后基于TP搜索空间的特点,设计了一个关系-序列-感知的搜索策略,实现了TP模型的自动设计;
最后,找到合适的联邦训练方法,分别支持FL框架下的TP模型搜索和最终模型训练,确保了搜索效率和最终的模型性能。
贡献:
大量的实验结果表明,ATPFL可以帮助用户获得性能良好的TP模型,比现有的在单源数据集上训练的TP模型获得更好的结果。
二、Introduction
1. 问题:TP数据孤岛
用来获得TP数据的设备分散在不同的地区,由于隐私保护,数据不能共享,这给现存的TP工作带来了限制。
2. 解决方式
引入联邦学习框架,来联合多个数据源,用一种分布式的和隐私保护的方式,合作获得一个更鲁棒和通用的TP模型。
3. 上述方式的两大挑战
① 在FL框架下设计TP模型是困难的。需要繁重的手工工作和领域知识。
② 适用于TP模型的FL方法尚未被研究。
4. 本文的目标
解决上述挑战,并提出ATPFL算法(结合了自动机器学习和联邦学习)。
① 解决第一个挑战:
设计一个适用于TP领域的自动机器学习算法,建立一个高效的TP领域搜索图空间。
利用GNN和RNN,设计一种关系-序列-感知的策略,来有效地探索TP搜索空间。
② 解决第二个挑战:
确定了一种具有快速收敛性的方法,来支持在AutoML中对TP候选模型的快速评估,从而保证了ATPFL的搜索效率。
用最高效的联邦学习训练方法,训练由ATPFL发现的最优TP模型,从而进一步提高ATPFL的最终性能。
5. 主要贡献
① 知识上,为TP区域的操作构建了一个详细的知识图
② 新颖性,打破了数据孤岛和专业限制
③ 效率上,设计的搜索策略、和选择的联邦训练方法,都非常适合TP区域,并有助于获得更强大的TP模型。
二、Related Works
1. 轨迹预测模型(TP模型)
(1)作用:预测人类未来的轨迹
(2)介绍TP模型的发展历史
2. 联邦训练方法
(1)联邦学习:训练一个基于分布在多个客户端上的数据集的高质量集中式模型。
(2)联邦学习的几种方法:
FedAvg:在每个客户端使用本地SGD更新,使用非独立同分布数据从客户端子集构建全局模型数据
Per-FedAvg:更加个性化。允许每个客户端使用其局部数据集,基于全局模型执行一个梯度更新
pFedMe:进一步提高性能。允许每个客户端使用任何优化方法来进行多步更新,而不会过多地偏离全局模型参数
(3)之前的工作忽视了FL在TP模型上的特点。本文旨在填补空白 ,确定TP模型的联邦训练方法,确保ATPFL在FL框架下的搜索效率和最终性能。
3. 神经结构搜索(NAS)算法
(1)自动搜索良好的神经结构,分为三种:
基于强化学习的方法 RL-based
基于进化算法的方法 EA-based
基于梯度的方法 gradient-based
(2)都是为CNN或GNN分类模型而设计的,它们无法解决TP操作之间有价值的连接,以进一步提高最终性能。本文旨在填补空白,设计一种更适合TP区域的NAS解决方案,实现高效、自动的TP模型设计。
三、Our Approach
设计了AutoML算法来实现TP模型的自动设计,确定联邦训练方法来指导ATPFL在FL框架下有效有效地工作。
1. TP模型的自动设计
(1)搜索空间
利用现有的TP模型设计经验,来构建一个有效的TP搜索空间
① TP搜索空间的特点
TP搜索空间中的关联:
R1:时间关联
搜索空间中的每个操作只对应于TP模型设计的一个阶段
IPM→FExM→FEnM→FExMadd→FEnMadd
→FFM→PPS→OC→LF→TM→LR→OF
R2: 限制关联
由于特殊要求,某些操作可能无法配合某些操作来构建有效的TP模型。
R3:技术关联
有些操作可能会应用相同类型的神经结构或技术。
② 关系-序列-感知策略
我们的战略的总体框架
Part 1:基于嵌入式学习的GNN
先使用GNN从TP搜索空间中的关系的信息中学习每个操作的有效嵌入表示。将搜索空间中的操作视为节点,并将r1-r3变换成三种不同类型的边 来连接相关的操作对,从而构造一个异构图来表示操作之间的关系。
然后,引入FAGCN(一个采用自门控机制的GCN),通过自适应集成相关的相邻信息,自动学习节点之间的关联,获得高级节点特征。
(自适应学习是因为 不同类型的邻居节点可能会对目标操作节点的最终嵌入做出不同的贡献。)
搜索空间中每个操作的嵌入式学习公式:
Part 2:Mask RNN优化器
利用RNN、异构图和学习到的高级操作嵌入,依次有效地获得最优有效的TP模型设计方案。
步骤:
将所选操作o1∼t=(o1,…,ot)依次嵌入RNN,以提取历史操作序列的有效特征。根据特征 预测每个下一步操作都是最优的 可能性。
**缺点:**由于不知道操作之间的R2限制性关系,可能会推荐无效的TP模型设计方案。
改进方案:
(1)思想:构造一个Mask向量,以屏蔽无效的下一步操作。
(2)具体操作:从St+1中识别出o1∼t的R2邻居节点,将它们的掩码值设置为0,而将其他值保持为1。
(3)因此,RNN可以过滤掉有效的操作选项,并更有效地获得次级最佳操作
这种强化策略可以通过最大化预期收益,来有效地更新模型的权重,指导搜索策略推荐更好的TP模型。
2. TP模型的联合训练
ATPFL的最优模型搜索阶段,通常需要对许多TP模型进行评估,并且需要一种收敛速度快的联邦训练方法。
① 三种联邦训练方法
给定一个分布式的和跨客户端非共享的数据集D = {D1,……,Dc},用联邦训练方法优化全局模型的权重w。
Fed-Avg 将局部训练数据集上的损失fi(w),直接视为Fi(w)
Per-FedAvg 使用个性化模型获得Fi(w)
pFedMe 在全局权重w的指导下,生成更灵活的个性化权重ϑi,以衡量Fi (w)
② 三种方法的特点
不同联邦训练方法在TP模型和联邦TP数据集上的性能曲线:
(1)FedAvg在早期训练阶段覆盖最快,也取得了最好的最终表现。
(2)pFedMe和Per-FedAvg在收敛速度和联邦性能方面都不突出,因此不适合我们的ATPFL算法。
(3)这些发现表明,强大的TP模型依赖于丰富的数据源,而个性化的训练方法更注重本地数据,但在TP领域并没有太大的帮助。
四、Experiments
研究ATPFL的性能。
分析联邦训练对TP模型的重要性;
AutoML算法部分与现有的AutoML算法进行比较;
消融实验来分析ATPFL设计的感知关系序列搜索策略。
1. 实验设置
① 数据集
为了评估我们的方法在FL框架下的性能,我们通过平等分布式轨迹数据的两个公开数据集 来构建一个联邦TP数据集D:ETH和 UCY,提供给20个客户。
对于每个客户端,我们分别保留其60%、20%、20%的本地数据集作为训练集、验证集和测试集。
② 评估指标
平均位移误差(ADE)
最终位移误差(FDE)
在测试集上的用ADE/FDE,比较他们在FL框架下的表现
③ Baselines
(1)比较ATPFL和两种流行的Auto-ML搜索策略:
RL搜索策略:结合递归神经网络控制器,同时基于EA的搜索策略进行多目标优化
随机搜索:在AutoML中常用的baseline。
(2)检验关系序列感知策略在TP模型和FL框架下的性能:
将ATPFL中的关系-序列-感知策略替换为这三种搜索策略,以检验它们在。
(3)用4个最先进的人类发明的TP模型为baseline,展示在FL框架下自动TP模型设计的重要性。
④ 实施细节
嵌入大小和隐藏大小被设置为100。
RNN优化器用Adam优化器进行训练,学习率为3.5e-4。
对于每个TP候选模型,我们使用FedAvg训练为5个epoch。选择验证集上获得最高联邦性能的TP模型,并使用FedAvg训练500个epoch。
用AutoML算法进行比较,控制每个AutoML算法的运行时间相同。
2. 性能评估
在FL框架下的4种AutoML算法、4种人工设计的TP模型下的性能:
图5可视化由ATPFL算法搜索的TP模型:
上面两个图表示,在联邦TP数据集上,ATPFL超过了其他的AutoML算法,在相同的搜索时间内发现了更强大的TP模型。
(因为考虑了操作间的关系避免了无用的评估)
表2的第二、三部分表示,在FL框架下,由AutoML算法发现的TP模型通常优于现有的人工发明的TP模型。
(因为在FL框架下实现TP模型自动设计,大大减少了人类专家的劳动力)
与非联邦训练方法相比,联邦训练方法,特别是FedAvg,可以获得更强大的TP模型。
3. 消融实验
关系-序列-感知搜索策略的两个核心组件:基于嵌入方法的GNN和the masked RNN优化器
进一步研究:使用了以下两种变体,观察对ATPFL算法性能的影响
① ATPFL without mask:忽略了操作之间的限制关系
② ATPFL without GCN and mask:忽略了搜索空间中操作之间的多重关系,并且不应用GNN来提取各种操作的高级特征。
实验结果:
ATPFL的性能是最好的。
因为ATPFL without mask中生成了大量的无效设计方案,证明了考虑操作之间的限制性关系的重要性。
因为ATPFL without gcn and mask 不能自适应地聚合高度相关操作中的信息,提取搜索空间中每个操作的高级特征,证明了考虑多重操作关系和使用GCN的意义和必要性。
五、Conclusion and Future Works
总结:
在TP区域结合了AutoML和FL技术,并提出了ATPFL来帮助用户联合私有和多源轨迹数据集,以自动设计和训练强大的TP模型。
优势:
第一个TP的工作,同时打破了数据孤岛和技术上的限制。
所设计的搜索策略和所选择的联邦训练方法,取得了良好的效果。
未来的工作:
将努力进一步丰富我们的搜索空间,并设计一个更有效的搜索策略来进一步提高ATPFL的性能。
顶会论文笔记:联邦学习——ATPFL: Automatic Trajectory Prediction Model Design under Federated Learning Framework相关推荐
- 论文阅读(联邦学习):Exploiting Shared Representations for Personalized Federated Learning
Exploiting Shared Representations for Personalized Federated Learning 原文传送门 http://proceedings.mlr.p ...
- 【Data Privacy顶会论文笔记汇总】
Data Privacy顶会论文笔记汇总 联邦学习调研benchmark 汇总 FL 数据集.FL 安全-攻防方面.FL 图卷积.FL 系统.FL医疗.个性化 FL.FL + NLP 一. 属性推理攻 ...
- 继续!从顶会论文看对比学习的应用!
公众号作者@上杉翔二 悠闲会 · 信息检索 整理 | NewBeeNLP 上周,我们分享了对比学习的一些应用,从顶会论文看对比学习的应用! 本篇博文将继续整理一些对比学习的应用,主要是集中在MoCo和 ...
- 【论文】联邦学习区块链 论文集(一)
1.\color{#FF0000} 1.1. Blockchained On-Device Federated Learning 关键词:联邦学习.区块链.延迟分析 主要贡献: 1)用区块链网络来代替 ...
- 【论文】联邦学习区块链 论文集(三)
21.\color{#FF0000} 21.21. Privacy-Preserving Blockchain Based Federated Learning with Differential D ...
- 论文笔记:Bootstrap Your Own Latent A New Approach to Self-Supervised Learning
论文笔记:Bootstrap Your Own Latent A New Approach to Self-Supervised Learning abstract: 介绍了BYOL网络(原理):依赖 ...
- 论文笔记之:Action-Decision Networks for Visual Tracking with Deep Reinforcement Learning
论文笔记之:Action-Decision Networks for Visual Tracking with Deep Reinforcement Learning 2017-06-06 21: ...
- 【论文导读】- STFL: A Spatial-Temporal Federated Learning Framework for Graph Neural Networks
文章目录 论文信息 摘要 Contributions Methodology Graph Generation Graph Neural Network 联邦学习 Experiment 数据集 Nod ...
- 【论文笔记】D2A U-Net: Automatic segmentation of COVID-19 CT slices based on dual attention and hybrid di
声明 不定期更新自己精度论文,通俗易懂,初级小白也可以理解 涉及范围:深度学习方向,包括 CV.NLP.Data Fusion.Digital Twin 论文标题:D2A U-Net: Automat ...
最新文章
- 如何在WordPress中自定义PHP页面并操作数据库?
- 10 个最值得 Python 新人练手的有趣项目
- php两数相乘,php – 如何将数字相乘,直到达到一位数字并计算数字?
- php实习生很苦吗,实习生就该被欺负做又累又苦的活吗?!
- 刀片 显卡 排行_AMD发布RadeonRX6000系列游戏显卡 4599元起
- android package.xml,Android自动化编译设置AndroidManifest.xml中package值(包名)
- 高通qcc芯片天梯图_芯片性能天梯榜“爆冷”,骁龙888无法撼动麒麟9000的王位...
- ef oracle 批量更新慢_详解Oracle中多表关联批量插入、批量更新与批量删除
- [APIO2010]特别行动队
- object picker 微信小程序_第三天学习微信小程序开发总结
- Azure powershell 获取 vmSize 可用列表的命令
- 盘点美颜api中的基本算法与开发难点
- python群发邮箱软件下载_python qq邮件群发
- 红旗h5中控台恢复出厂设置后不显示倒车影像问题
- OEE(设备综合效率)
- 代码批量删除QQ日志和说说
- 大学物理实验长度的测量实验报告_大学物理实验长度测量
- 计算机图形学 读书笔记(八) 光线跟踪加速Ray Tracing Acceleration
- 量子计算新突破:为奇异分数量子态与超导耦合提供机会
- 【威联通QNAP】TS-216折腾踩坑记录(更新于22.11.22)