2014年12月12-14日,由中国计算机学会(CCF)主办,CCF大数据专家委员会承办,中科院计算所与CSDN共同协办,以推进大数据科研、应用与产业发展为主旨的 2014中国大数据技术大会 (Big Data Technology Conference 2014,BDTC 2014)暨第二届CCF大数据学术会议在北京新云南皇冠假日酒店盛大开幕。

2014中国大数据技术大会首日全体会议中,卡耐基梅隆大学教授、ICML 2014程序主席邢波带来了名为“A New Platform for Cloud-based Distributed Machine Learning on Big Data”的主题演讲。期间,邢波表示,着眼当下大数据处理平台,大量资源都都浪费在集群的通讯上。即使比较优秀的平台,计算时间也只有20%,通讯时间占到80%,就比如Hadoop的通讯时间占到90%。

卡耐基梅隆大学教授、ICML 2014程序主席   邢波 

以下为演讲实录:

邢波:

我首先感谢大学组委会邀请我来给这儿做一个报告。我这个报告风格可能跟以前几个不一样,干货比较多,有一些正规的实验结果,甚至有一些数学公式,我很乐意分享一下刚刚从学生那得出的结果。

用于大数据的分布式机器学习运算的平台。当我们 面对大数据,大家首先问到的问题,我们从大数据里面能挖到什么东西,大数据到底有什么用?这个问题大家已经看到了很多展示,这块就不再重复或者追加。

我这儿希望能够讲一个更加无趣但是基本的问题,如何来进行大规模的大数据运算,如何把它做对。这个原因是?现在数据量如何之大,以后关键的问题会是对数据的正确理解,而这里边的工具到底是什么呢?至少在我们计算机学家目前的经历来看,很多人同意机器学习和它代表的统计学习的算法可能是一个对数据进行有效挖掘的途径。

我这里就要探讨一下如何把这个工具过渡到大数据的平台上,而这个大字对以前的研究产生什么影响。有必要强调一下这个问题的重要性。  现在有很多对大数据的忽悠,很多文章都会说数据就是金钱,有很多数据的话你就变得很有财富,甚至你变得非常聪明。没有一个很好有效体系对这个数据作为分析,其实数据不等于知识,森林里面倒下一棵树,你没看到的话,它倒没倒下,你就不知道。今天讲这些技术型的问题。

为什么大数据的机器挖掘比较困难,首先数据量变大,挑战了存储、通讯甚至处理的极限,你要把它分布到一个大的数据中心去。但是其实挑战不仅仅是这一些,当数据变得很大的时候,你的问题变得很复杂,需要聪明大脑和聪明的模型理解。

大家在大型公司里面有几百个E,从单机里面溢出需要并行处理,想把这步做对并不是简单的问题,这就涉及到第三个问题,当这些软件包工具到底在哪儿?你可能看到刚才讲解者展示IBM的系统,余凯先生会展示百度的系统,大数据的问题都是大型企业他们专属权利,而比较屌丝级别的公司就没有办法处理,是不是这样的东西?我想大数据记忆库普及变得非常好用情况就会改观。

数据库不能包括简单的工具,这些工具都有20、30年的历史还在用但并不是很有效,我们要的高大上的工具,深度学习、化学模型、协同过滤这些东西在很近代的教课书里面出现,还在被很高级的公司积极使用,他们到底有什么样的一些技术上的挑战,防止普通人或者更多大公司使用。

我这里要提出一个问题,当你这个数据或者是模型大到了从一个机器内存里面溢出,大家希望显然是这么一张曲线,我不断加机器,越加越多能力越高,这是大家的期望。如果各位开发人员尤其工程人员有实际经历,当我给你一千台机器你的能力并没有增加一千倍,机器有很多的时候,你有资源各种各样的时间浪费在没有用处计算,比如说通讯、等待、协调这些方面。我们看到的一个曲线是这样的一个曲线,对于计算机学家来说,固然去拿大数据来做挖掘,提供信息也很重要,但是我觉得计算机学家另外一个很重要的任务提供方法论和工具,把这个曲线从这儿提到这儿,这就是我待会讲话中心内容。

我为什么说现在已有的系统不足以实现我们刚才所希望的功能呢?这块我举几个例子。比如说有很多机器学习的学者,他们显然对大数据很感兴趣,由于本人本身训练或者是习惯思维缘故,他们对系统知识并不了解,他们看到一百个机器跟一台机器的差别只不过乘了一百,中间的代价或者是机器的失效几率他们可以都不太考虑,所以他们的算法主要是针对数学上的正确性或者是迭代算法迭代次数减少性,但是他们不会钻研这个算法到底在一个真实的机器上怎么运作,他们会写这么一个程序,中间有一句话,并行运算,这个就开始发生了,把这些东西放在很多机器上算好。

实际过程中,我至少看到是这样一个情况,你去做一个小实验,去测量用在计算上的时间和用在通讯上的时间,最好结果也无非如此,20%的时间花在机器上面,80%的时间花在等待,这种理想状态不存在,所以这些算法不被经常应用。

系统工程师对智慧学习或者统计学习原理或者技术并不见得非常精通,他们所需要实现的目标尽可能实现迭代的输出,修正由于机器造成的一些损耗,所以他们会发展一些非常可靠、非常高通的一些技术。但是他们对于学习的算法通常是做了一个非常简单的假设,我只要把它能够跑起来,它肯定能跑对,肯定会收敛。如果它有一个特殊编程模型,Spark里面有一个RDD,他们就会假设,无论什么机器学习的算法都可以转换成这么一个模型,这是工程师的任务,我就不知道各位工程师试过把话题模型变成RDD是很困难的。

所以系统方面的工作通常简化了在机器学习理论上的工作,把它变得理想化,最起码会造成一些资源上的浪费,但更严重会造成算法本身的失败会发散,你得到结果并没有用处。所以总结一下,由于两方面领域间的隔阂,通常我们在开发已知系统对对方的框架都产生了比较简单化的假设,实际工作中你丧失了很多机会,也造成了很多错误

理想状况下有这么一个途径,你有很多任务和硬件,咱们中间有一个普世的算法或者框架,然后这个框架上能够来支持所有这些机器学习的软件,然后使用所有已知的硬件,中间这层机器之间的协调、通讯或者是错误处理应该是被抽象化被自动化,作为一个程序员我们不应该掌握去触碰这些东西。

这个问题到底是在什么层面上能够获得解决呢?我首先想指出这绝对不是一个软件的问题,在设计这样的一个界面的过程中,你不仅要懂得系统设计也要懂得机器学习的理论,而且还要懂得算法的设计,所以整个需要的技能是相当庞大的一个技术支持。所以这也就造成了这种问题的困难性,而且它就说明并不是所有人去碰这个问题,风险很大,回报率并不是很高,但总有人在做这样的事情,有人开发类似的操作平台或者框架,我们这块也有这样的工作,我待会想跟大家分享一下开发框架中比较有意思的思路和得到的 教训。

这里要设计分布式的策略,怎么做分布。当你有一只一台机器的时候,显然把任务分布到每个机器上去,每个机器往前走,把中间结果存在局部的存储空间,他们完成的时间并不是一样,保证程序正确性你需要设置,每一台叫做服务器可以接着往下走。机器学习算法有这么一个特点,不是一次性,需要反复进行迭代,这样就造成困难,在你选择对于系统的行为采取不同的措施的时候,它会产生不同的结果,有些结果就是像这样,很多时间浪费在通讯上面,能保证你的结果很对,它是慢但是对。另一种方法我把通讯协议可以简单化,让它不必等待彼此,有时候会得到一个很快的结果,但这种结果经常是一个发散的不正确的一个结果。

Hadoop,在过去被大家认为是一个适合写并行程序的平台,但是Hadoop对机器学习的算法是不是真正适合呢?我不知道各位在自己开发过程中有这样的经历,我自己在学校里面或者Facebook做访问学者的经历是相当悲惨的经历,你在Hadoop掌握了一千台机器你来写一个Hadoop的项目,中间硬盘读取的瓶颈会极大程度限制了程序有效性,当你有很多机器的时候,彼此之间很难同步,大部分时间发生在等待里面。硬盘读取是相当昂贵的操作所以会耗费大量时间,经常造成程序相当难往前推进。

这块,我们从这个地方出发,怎么来解决这个问题,是相当有意思的一个问题。这块为了表达我们的思路,有必要稍微展示一下到底机器学习的神秘性或者它的特点在哪儿?跟普通的程序有什么区别?我尝试了一下做了比较。通常写计算机程序希望是一个精密的执行,就像我搭一个楼,把一个蓝图精密到按步骤进行实现,这样保证这个楼能搭起来。机器学习不是精密实现以前设定好的计划,通常实现优化问题,就像在体操里面有一个规定动作一个自选动作,爬这个山顶你可以从这条路爬,也可以从那条路爬,所以有一种容错性,有容错性就给了新的机会。这块我想说机器学习可以写出这么数学公式,达到最高点你可以用数学公式进行评估,解决途径执行迭代程序,迭代程序本身有自动收敛性的特点。

当你在一定情况下进行迭代,不管你迭代精度是特别高还是比较高,它都有可能收敛,这就造成了机器学习算法既难又简单,关键看你从哪个角度解决。比如说他提供的特点就是容错性,容错性什么意思?比如说你在做一个sorting,我们知道这个东西是不能容错的,这块如果错了以后不改,最后结果是错的。这是传统计算机的普遍特点,一旦在某个结骨眼出了错,你必须改。在机器学习,就像有点喝醉的家伙在爬山,虽然醉了,但知道山顶在哪儿,他看得见,脚还能,多多少少还是能爬上去,不见得爬得那么快,走错了以后还要走回去,还要重走,这个地方是不一样的。

还有数据和模型的两向性,对于系统工程师,数据和模型并没有什么区别,它都是在内存里边的一些数字而已,你把它分割是没有问题,比如我有数据分在某一个机器上,我这儿有模型,模型指里面参数,比如神经网络参数可以把它分割,大了以后我们可以做所谓的数据和模型并行。

在通常经典的系统设计里面,这两种并行没有区别,有时候你会看到Hadoop和Spark不相区分的并行处理。但是如果你仔细观察机器学习程序特点,你发现这两种并行的结果很不一样,当数据被并行的时候,他们之间是不相关的,所以你不需要对他们之间进行协调,需要对算出结果进行一定的协调,当然在他们算的过程中你不需要进行协调。

当模型被并行的时候,它中间实际是相关的,所以你不在过程中进行协调,最后结果就会出错,所以这种情况下你会发现,你对数据并行对模型并行做不同的通讯和系统设计,还有其它一些东西我就不多讨论。

我做一个总结,机器学习算法有它的独特性,基于优化的算法,而且用(递归)来实现,有一些容错的能力有一些动态结构,然后它还有一些非同质的,有一些参数会回归很快,有些收敛很快,你对收敛快做完停下来把资源另外使用,这都是要求编程员或者程序对机器学习算法有一定的了解,这样有一定的机会来进行加速。而这种东西在传统程序里面不存在,通常对于指令级的一个正确,造成这样很多技术上更多难的学习,但在机器学习不见得很有必要。

看看已知的系统怎样解决这个挑战,大家都知道Spark是Hadoop新的版本,后面迭代非常好。RDD保持一个过程数,所以在运算中如果出现问题很快找出问题所在,这都是RDD和Spark非常优异的特点,特别在数据库的处理或者非迭代的数据处理里面是非常有效的。

做模型并行要求全局性的一个协调,这样就会产生一些很大的代价。Graphlab,用图上的边表示学习的重要性,你写成一个节点程序自动做一个非同步的通讯,  仍然保持这个程序最后能够正确收敛。这也是一个很好的思路,在很多情况下都产生了比较好的结果,甚至比Spark还要好,它也有一些问题,数据量变得非常大,数据量变得非常沉重,效率不是很高。

我们组正在开发这么一个平台,叫Petuum包含数据和程序并行两套功能,也对机器学习的特点做了比较好的一个研究,对他们做了一些针对性的使用,所以我们系统对机器学习内部特点有比较针对性,他们有一些非常有意思的特性和功能,这块我可以总结一下。

大致结构是这样,包含一个参数服务器,大家都知道参数服务器,给你提供很好编程的一个虚拟并行内存,大家在编程的时候不用对每个机器进行单独通讯,我们还有一个叫做调度器,它是能够对模型进行有效的分割,甚至是动态分割,然后做一个分布化。运行原理就跟机器学习的工程师写机器学习的算法基本一个思路,用迭代加上对公式的,跟传统的是不一样的。

这个参数服务器有这样一个编程界面,你在写内存读取不需要对每一个机器做一个特殊的指令,使用了比较巧妙的所谓半同步的协调机制,这样可以显著降低使用在通讯上的时间,而加强在计算上的时间,所以你可以看到随着我们半同步参数的调整,我们这个通讯时间会显著下降,降到了以至于比计算时间还要少,这样使计算机的资源得到最大量的利用。

在调度器方面我们也爱基于机器学习考量的设计,调度机自动发现机器学习模型里面的一些特点,找出哪些参数是相关,哪些参数是不相关,然后对它们做相应分布,他们在分布运行的时候并不违反正确性、约束性,这样也会造成更快的收敛。

为什么这样做产生这样好的结果?这里边有一些比较深层的技术和科学原理,时间允许,我可以再讲几分钟。并行系统是没有理想的,我们当有好几台机器,显然不能希望它同步运算同步通讯,即使不同的机器放在机房里面温度不一样,行为都是不一样的,最后结果就是我们看到这样的情形。我们怎么来协调这样的一个缺陷呢?通常对编程高手,当然这不是问题,他可以对每一台机器做深层操作,可以避开所有的陷阱,对于普通程序员和低端用户对非常昂贵儿童耗时开发过程并不见得能负担得起,我们需要还是非常简单的界面,让界面本身做了通讯上的决定,这个决定在数据并行过程中可以被总结成一个所谓的叫做协调或者是同步协议。这个同步协议我们大家都知道,这一端Spark或者Hadoop协议完全协议,然后往下走,这个东西在数学上证明是有对的,但是造成有效性的损失。

另外一种比较肮脏的结果,我不同步了,让自己跑,对程序收敛性和正确性没有任何保障。我们采取的方法是走一个中间路线,做一个半同步,让机器在有限的窗口里做局部的运算,局部的参数值做一个运算,不跟其它东西通讯,当这个窗口被突破的时候,我就必须停下来等,每一个到达窗口的时间是随机,最后结果现成都可以在最大使用上做窗口运算,我们关心这样的东西显然变得更快,就像非同步的东西,能不能保证正确性,结果是这样的,因为我们是有限的非同步或者半同步,你可以 产生一个证明,产生的收敛结果跟同步结果是一样的。我目前知道第一个对于操作系统做一个理论证明正确性的结果,这个系统有一定的理论价值甚至是一个好的应用价值。

然后它的编程界面是相当普通的界面,你把不同的机器学习算法,像话题模型、矩阵分割或者是像显性或者逻辑回归都表示成参数服务器这样的表示,用这样一个很简单的高级语言来进行操作。结果如何呢?我们发现在不同的程序上面我们都获得了比这个同步或者是完全非同步的方法更好更快和更佳的收敛结果。

再讲模型并行,在数学上有一个更强烈的所谓的协调性的要求,这块我想用一个显性回归做一个简单的阐述。通常我们做显性回归需要估计参数,这个参数矢量是很高维的,100亿维,在普通存储机器里面放不下,或者放下以后用串行的方法来算很慢,所以你需要并行,那乱放行不行?最后发觉不行。在数学上获得这样一个形式,当你随机取两个参数,当你动用了其中一个参数,另一个参数,它的值和前面那个值相关,所以有一前一后要求,当你把这两个东西做并行,相关性就被破坏,而且无法收敛,这两个相关度在数据上有关系所以可以做定量计算,所以当两个参数非常相关我们放在同一个机器上面,这是相当昂贵的操作,划出一个节点图我们对每一个参数对做这样的预估,100亿维是很大的图,是不可操作的。

我们在这两种选择里面纯粹图分割或者随机分割采取中间路线,我们可以想像参数里边并不是所有参数都是同样重要,有些东西重要,有些东西不重要,有些东西快收敛了,我们采用一种方法对参数进行大致评估,只对重要的东西进行处理,这是基于结构的并行化叫SAP,也可以用简单的编程界面。这是一个操作,从某一个方程里面取样,取一部分重要参数,对它结构进行分析,把它们向各个机器上做分布。

在第二个迭代里面,有可能结构会出现变化,可以再重新做这一步,这是用户之间的选择。分布策略有很多可能性,刚才说优先度的考量,哪些参数重要哪些参数不重要,你也可以做模块化考量,把参数分成几个块,也可以做有保障的同步。

实验结果,你做了良好动态并行实现很快良性收敛,不然就是不收敛或很慢的收敛,我们也有实验证明,不光在均值在方差上都有很好的收敛的保障。时间正好让我讲完了科学原理,我们也见到的结果,在不同算法上得到了很大的提升。我最后用几张图总结一下,现在大规模机器学习平台整个环境,这是相当挑战但是相当让人激动的领域,有很多家在玩,我显然是个黑马。

现在在讲大数据大模型你要是没有几十个亿的基数就不用再谈的。看看最近达到了什么结果,你用一万台机器达到一百亿参数,做了话题模型的估计,你会看到其它的数据、神经网络或者对于话题模型都达到了类似的量级,大家目标我的机器越来越多,把模型可以做得越来越大,这是一个趋势,有所投入有所收获,你希望把效率进一步提高,这是我们汇报的结果,我们在最近做了话题模型和矩阵分解和卷机神经网络,看到他们的大小都已经超过了现在目前在文献里边所汇报最大的结果,但是所使用的机器比现在的机器少一个数量级

我们跟微软做了一个合作,他们有24台高端机器,这是10的12次方参数的  话题模型,有一百万个话题,每一个话题有一百万个词,这是目前所知道最大的话题模型,比非常有名的腾讯的那个东西还要大了大概50到100,我们用的机器比他们少。

对于平台设计既考虑了系统学习,和机器学习你会得到很好的收获,我们也是开源项目,至于目前的观察可以说,不光可以达到很大量,基本上等价于现在最好的系统。讲话前,刚刚收到学生最新送来的结果,很让我们惊讶,还有一个组知道了我们的系统,用这个系统跟Spark和Hadoop做了独立比较,我很高兴看到值降到最低。我想用这个结果来结束我的讲座,最后大家可能会希望知道,到底Petuum系统到了什么程度,我们愿景既包含软件和底层软件的支持,目前在Hadoop生态系统一个分子,你们可以把它下载以后做自己的开发,也可以使用我们的软件,这个项目我最后要感谢我的同事和学生在这两年里面的支持,也感谢各位的关注,谢谢!

耐基梅隆大学教授邢波:Petuum,大数据分布式机器学习平台相关推荐

  1. 卡耐基·梅隆大学教授金出武雄:对户外机器人三十年来的探索|CCF-GAIR 2017

    雷锋网(公众号:雷锋网)按:7月7日,由中国计算机学会(CCF)主办,雷锋网与香港中文大学(深圳)承办的第二届CCF-GAIR全球人工智能与机器人峰会在深圳如期开幕.在大会第一天的AI学术前沿专场,卡 ...

  2. 博士申请 | 卡耐基梅隆大学陈贝迪老师课题组招收机器学习方向博士生

    合适的工作难找?最新的招聘信息也不知道? AI 求职为大家精选人工智能领域最新鲜的招聘信息,助你先人一步投递,快人一步入职! 卡耐基梅隆大学 我们组将来会致力于以发展 (advance) 和普及人工智 ...

  3. 卡耐基梅隆大学计算机金融专业,卡耐基梅隆大学计算机金融硕士申请要求及专业优势...

    卡耐基梅隆大学计算机金融硕士申请要求 背景要求:要求申请者本科毕业,拥有数学.计算机科学.工程或经济学专业背景,修读过至少2个学期的微分方程和积分课程,要求学生拥有强大的数学和概率论背景,熟练掌握计算 ...

  4. 卡耐基梅隆大学计算机工程录取率,卡内基梅隆大学2020新生数据出炉!计算机学院录取率堪比藤校...

    提起CMU,想必各位小伙伴肯定都不陌生,坐落在美国宾夕法尼亚州匹兹堡的它,可是美国25所新常春藤盟校之一.最近卡内基梅隆大学2020年秋季录取数据出炉!跟着学霸君来看看到底什么样的人才会被它录取吧! ...

  5. 李飞飞确认将离职!谷歌云AI总帅换人,卡耐基·梅隆老教授接棒

    https://www.cnblogs.com/DicksonJYL/p/9626305.html 看点:李飞飞正式回归斯坦福,新任谷歌云AI总帅还是个教授,不过这次是全职. 9月11日凌晨消息,谷歌 ...

  6. 卡耐基梅隆大学提出新型「自适应」技术,可提高「个性化神经机器翻译」质量...

    原文来源:arXiv 作者:Paul Michel.Graham Neubig 「雷克世界」编译:嗯~是阿童木呀 导语:现如今,随着人工智能的发展,机器翻译在一定程度上取得了很大的进展,但是大家都知道 ...

  7. 卡耐基梅隆大学计算机工程录取率,热点:卡内基梅隆大学爆出2020年新生数据,计算机学院录取率堪比藤校...

    原标题:热点:卡内基梅隆大学爆出2020年新生数据,计算机学院录取率堪比藤校 卡内基梅隆大学(Carnegie Mellon University),简称CMU,坐落在美国宾夕法尼亚州的匹兹堡,美国2 ...

  8. 客户案例|围观!卡耐基梅隆大学用上中国造?要玩转自主导航机器人领域?

    近日,卡耐基梅隆大学 Safe AI Lab (人工智能安全实验室) 赵鼎教授团队分享了其在自主导航机器人领域的最新研究方向,该项目以开源自主连接和自动化研究车辆平台(OpenCAV Platform ...

  9. 卡耐基梅隆大学计算机工程录取率,卡内基梅隆大学2020新生数据,计算机学院录取率堪比藤校!...

    原标题:卡内基梅隆大学2020新生数据,计算机学院录取率堪比藤校! 卡内基梅隆大学(Carnegie Mellon University),简称CMU,坐落在美国宾夕法尼亚州的匹兹堡,美国25所新常春 ...

最新文章

  1. EDM营销内容撰写要注意的几个方面
  2. 【TensorFlow】TF-tf.nn.dropout
  3. mysql variables 大记录 查询 慢_MySQL - 慢查询
  4. leetcode刷题 60 61
  5. C语言程序练习-L1-011 A-B (20分)
  6. 应用市场高速下载以及网页端调起APP页面研究与实现
  7. Vue学习(MVVM、入门练习)-学习笔记
  8. MySQL 8.x 修改root用户密码/修改密码/重置密码/忘记密码(为了避免掉坑,值得收藏)
  9. 【转】赶集网mysql开发36军规
  10. Linux用户(user)和用户组(group)的日常管理与操作教程概述
  11. 建议推出专门用于开发的电脑
  12. 年末优质蓝牙耳机盘点:十款商城热销高人气无线蓝牙耳机测评
  13. 闽什么什么院第二课堂网课破解-----微信内置浏览器
  14. 加密解密之 crypto-js 知识
  15. ORA-00932: 数据类型不一致: 应为 -, 但却获得 CLOB
  16. 射频通信PCC和SCC定义
  17. 微信订阅号之政府认证
  18. Java仿文库的基本方法(openoffice+swftools+flexPaper)
  19. 从PE制作到恢复win引导
  20. el-form表单添加自定义验证

热门文章

  1. Linux安装代理软件proxychains
  2. 04.9. 环境和分布偏移
  3. 乐山市计算机学校成教中心,乐山市计算机学校:网络教育开学典礼顺利举行
  4. 【数据恢复】重建分区表恢复文件-恢复diskpart clean
  5. 安装drawio + 添加中文字体
  6. java实现单数替换双数替换,JavaGuide算法题
  7. 全球与中国半导体CMP晶圆固定环市场深度研究分析报告
  8. 计算机无法发现蓝牙设备,蓝牙打开了搜不到设备如何处理_电脑蓝牙开启却搜不到设备的解决教程...
  9. 自监督模型 Self-supervised learning(李宏毅2022
  10. MDC300F CANFD应用笔记