机器之心报道

机器之心编辑部

CMU 机器人研究所张昊(Hao Zhang)博士论文新鲜出炉,主要围绕着机器学习并行化的自适应、可组合与自动化问题展开。

随着近年来,机器学习领域的创新不断加速,SysML 的研究者已经创建了在多个设备或计算节点上并行机器学习训练的算法和系统。机器学习模型在结构上变得越来越复杂,许多系统都试图提供全面的性能。尤其是,机器学习扩展通常会低估从一个适当的分布策略映射到模型所需要的知识与时间。此外,将并行训练系统应用于复杂模型更是增加了非常规的开发成本,且性能通常低于预期。

近日,CMU 机器人研究所博士张昊公布了自己的博士学位论文《机器学习并行化的自适应、可组合与自动化》,旨在找出并解决并行 ML 技术和系统实现在可用性和性能方面的研究挑战

具体而言,该论文从可编程性、并行化表示、性能优化、系统架构和自动并行化技术等几方面对分布式并行 ML 展开了研究,并认为分布式并行机器学习可以同时实现简洁性和高效性。此外,该论文表明,并行 ML 的性能可以通过生成自适应 ML 模型结构和集群资源范式的策略实现大幅度提升,同时通过将「如何并行化」这一核心问题形式化为端到端优化目标以及构建可组合分布式 ML 系统来自动优化这类自适应、自定义策略,进而可以解决可用性挑战。

论文链接:https://www.cs.cmu.edu/~hzhang2/files/hao_zhang_doctoral_dissertation.pdf

机器之心对该论文的核心内容进行了简要介绍,感兴趣的读者可以阅读原论文。

论文内容介绍

这篇论文主要由三部分组成,如下图所示,第 1 部分(第三章 - 第五章):在单个机器学习并行化层面,使用自适应并行化理解和优化并行机器学习性能;第 2 部分(第六章 - 第七章):为机器学习并行开发统一的表示和可组合系统;第 3 部分(第八章):机器学习并行化的自动化。

论文结构概览

论文第一部分提出了一个简单的设计原则自适应并行(adaptive parallelism),根据模型构建要素(比如层)的特定 ML 属性,将合适的并行化技术应用于模型组成要素中。作者以 BERT 为例,总结出了实现这种自适应的基本原理和三个核心概念,分别是子模型策略组合、多个并行化方面的系统优化和资源感知。此外,作者推导出了一系列优化和实现方法,从不同层面去提升 ML 并行化。研究结果表明其显著提高了 ML 训练在集群上的效率和可扩展性。

第二部分对这种方法进行了概述,并且面向机器学习并行化任务的两个常见范式:单节点动态批处理和分布式机器学习并行,作者将机器学习的并行化表述为端到端的优化问题,并寻找其自动化的解决方法。作者提出了原则表征来表示两类机器学习并行,以及可组合的系统架构 Cavs 与 AutoDist。它们能够快速组合不可见模型的并行化策略,提升并行化表现,并简化并行机器学习程序。

Facebook AI 提出的 DETR 的架构图

在此基础上,论文第三部分提出一个自动并行化框架 AutoSync,用于自动优化数据并行分布训练中的同步策略。它实现了「开箱即用」的高性能,可以通过提出的表征进行空间导航,并自动识别同步策略,这些策略比现有的手工优化系统的速度提高了 1.2-1.6 倍,降低了分布式 ML 的技术障碍,并帮助更大范围的用户访问它。总结来说,这篇论文提出的相关技术和系统验证了分布式环境下面向大规模机器学习训练的端到端编译系统的概念与原型实现。

AutoSync 策略的自动优化流程算法

AutoSync 中的策略空间包含了现有系统中的很多高级策略

语言模型的分布式预训练示例

预训练语言表征已成为 NLP 系统中最普遍、最关键的部分。使用与任务无关的语言模型框架,可以对从 web 抓取的未标记文本进行无监督的训练,只需预测下一个单词或句子。预训练表征可以灵活地应用于下游任务,针对特定任务的损失和数据集进行微调,或是通过少量上下文学习。

近年来,人们在开发更强大的任务无关 LM 架构方面取得了巨大进展,从单层词向量表征到递归神经网络的多层表征和上下文状态,以及最新的基于递归 transformer 的架构。

下图展示了一个著名的例子——双深度 Transformer(BERT)——属于第三类。不管网络架构如何,语言模型通常包含许多参数,而这些参数是在大规模文本语料库上训练出来的,这是因为它们的建模能力随其大小以及文本扫描量成正比。

假设我们对训练 BERT 感兴趣,在基于 AWS 的 GPU 集群上使用 TensorFlow 等框架实现。我们可以使用最先进的开源训练系统——Horovod,开始数据并行训练。

应用 Horovod 转换单机 BERT 训练代码,涉及将原始的框架内置优化器与 Horovod 修补的优化器包装在一起。然后 Horovod 会在集群节点上使用 collective allreduce 或 allgather 来平均和应用梯度。

这些 TensorFlow+Horovod 代码片段展示了 Horovod 如何给优化器打补丁,以及如何为分布式训练进行非常小的代码改变。

虽然可能会在目标集群上部署训练,但获得的扩展不太可能随着添加更多资源而成比例增长(理想情况下,线性扩展与加速器的数量成比例增长):所有的语言模型都有嵌入层,这些层拥有很多模型参数,但在每个设备上的每次训练迭代中访问很少,减少或聚集其梯度都会导致不必要的网络运作;BERT 中的 transformer 是矩阵参数化、计算密集型的,与 Horovod 中的常规做法一样,将梯度分组在一个缩减环(reduction ring)中,很容易使以太网带宽或异构集群 (如 AWS) 的设备 Flops 饱和。

在这两种情况下,设置都容易出现通信或计算混乱的情况,即训练时间的缩短无法令人满意,花费在训练上的计算资源成本在经济上也不能接受。这表明,并行化的常规目标并没有实现。

所以,本文提出的这种自适应并行策略,能够为并行化性能进行适当的优化。

作者介绍

张昊在今年 9 月 2 日完成了博士学位的论文答辩,导师为 CMU 教授、Petuum 创始人邢波(Eric Xing)。获得 CMU 机器人研究所的博士学位后,他将以博士后身份进入 UC 伯克利的 RISE 实验室,与计算机科学系教授 Ion Stoica 共同工作。

他的研究兴趣包括可扩展的机器学习、深度学习以及计算机视觉和自然语言处理领域的大规模机器学习应用。他还协同设计了一系列模型、算法和系统,在更大规模数据、问题、应用中进行机器学习扩展,以简化复杂机器学习模型和算法的原型开发,使机器学习程序分布自动化。

以下为论文章节目录:

分布式机器学习_229页CMU博士张昊毕业论文公布,探索机器学习并行化的奥秘相关推荐

  1. 分布式机器学习_229页,CMU博士张昊毕业论文公布,探索机器学习并行化的奥秘...

    CMU 机器人研究所张昊(Hao Zhang)博士论文新鲜出炉,主要围绕着机器学习并行化的自适应.可组合与自动化问题展开. 机器之心报道,机器之心编辑部. 随着近年来,机器学习领域的创新不断加速,Sy ...

  2. 229页,CMU博士张昊毕业论文~探索机器学习并行化的奥秘

    点上方蓝字计算机视觉联盟获取更多干货 在右上方 ··· 设为星标 ★,与你不见不散 仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:机器之心 AI博士笔记系列推荐 周志华<机器学习> ...

  3. 229页,CMU博士张浩毕业论文公布,探索机器学习并行化的奥秘

    机器之心报道 机器之心编辑部 CMU 机器人研究所张昊(Hao Zhang)博士论文新鲜出炉,主要围绕着机器学习并行化的自适应.可组合与自动化问题展开. 随着近年来,机器学习领域的创新不断加速,Sys ...

  4. 机器学习精髓-机器学习百页书

    <The Hundred-Page Machine Learning Book>(中文名:<机器学习百页书>)一本精简的机器学习入门手册,本书囊括机器学习的精髓,系统而精炼地讲 ...

  5. CMU博士Nature撰文:机器学习要避开这三个“大坑”

    加州TAE能源公司的员工和谷歌研究人员正在利用机器学习,对生成高能等离子体的设备进行优化 [导读]现在机器学习领域急功近利的氛围引发了一系列问题,如论文实验不充分.审查标准不一,结果偷工减料等.CMU ...

  6. 《预训练周刊》第14期:World-GAN:Minecraft 世界的生成模型、CMU博士论文探究可控文本生成...

    No.14 智源社区 预训练组 预 训 练 研究 观点 资源 活动 关于周刊 超大规模预训练模型是当前人工智能领域研究的热点,为了帮助研究与工程人员了解这一领域的进展和资讯,智源社区整理了第14期&l ...

  7. 机器学习百页书:机器学习中常用到的一些数学符号

    一本精简的机器学习入门手册.机器学习百页书<机器学习精讲>,人工智能的核心是机器学习,本书囊括机器学习的精髓,系统而精炼地讲解机器学习的基本原理.本书英文版一经推出,就长期位于亚马逊机器学 ...

  8. 711页的黄海广老师的《机器学习》课件合集.pdf

    黄海广博士的机器学习课程登陆了中国大学慕课,在9月6日10点开课了,目前有5400多人报名了. 今天,为了方便读者学习,黄海广博士公布了课程的ppt全集,一共711页,并提供下载. 课件介绍 本课件是 ...

  9. 德州扑克算法幕后研发者CMU博士Brown专访:AI如何打败顶级人类牌手?

    在上个月举行的单挑无限注德州扑克( heads-up no-limit hold'em)人机对战中,由卡耐基梅隆大学研发的AI程序Libratus以每100手14倍大盲(译者注:缩写为14bb/100 ...

最新文章

  1. C#_asp.net页面转向
  2. 华为今年不会发布鸿蒙系统的手机,华为:今年不会推出鸿蒙系统手机 将坚守安卓生态...
  3. uhttpd 架构调用细节之lua
  4. The application could not be verified
  5. centos 卸载软件_Linux服务器运维必备技能 软件包和启动项超详细整理
  6. 一个老测试给想入行测试行业新人的二十条建议
  7. 怎么把竖列中的数相加python_使用python将另一列的列和总和内容分组
  8. 前端零碎问题(四)css3
  9. 逆clarke变换_克拉克(CLARKE)及帕克(PARK)变换.pdf
  10. Android 开发系列教程之(一)Android基础知识
  11. 操作系统和各类编辑器的豆沙绿设置
  12. 信息学奥赛一本通 1273:【例9.17】货币系统
  13. 如何实现复制文本到剪贴板?
  14. 超文本标记语言--Html
  15. Onenote 同步 PAC加速方式
  16. 华为云跨服务器传输文件,云服务器传输文件
  17. java+mysql+javaweb网上购物系统
  18. 15首中秋诗词,有2首你肯定熟悉
  19. centos6 trouble shooting
  20. 使用ICSharpCode.SharpZipLib对文件进行压缩或解压

热门文章

  1. 帝国cms模板仿系统之家
  2. python评价指标_详解分类评价指标和回归评价指标以及Python代码实现
  3. 拾人牙慧,浅记一些C++的类
  4. 计算机高逼格术语,你能看懂这些高逼格专业词汇吗?
  5. java提出word和pdf等文件的信息
  6. RabbitMQ集群搭建(七)
  7. Cloud Programming Simplified: A Berkeley View on Serverless Computing
  8. [Asp.Net Core]NET5跨平台的本质
  9. Word中将一级标题设置为段前一行与段后一行时,不显示段前一行怎么办?
  10. Locating Elements