1、任务调度与资源调度

任务调度:是指通过DAGScheduler,TaskScheduler,SchedulerBackend等进行的作业调度。

资源调度:是指应用程序获取资源。

任务调度是在资源调度的基础上,没有资源调度,那么任务调度就没有任何意义了。

2、分配Driver(只对cluster模式有效)

Spark的Driver的运行有2种模式,一种是Client模式(Driver程序运行在客户端,适用于交互、调试,希望立即看到app的输出),一种是cluster模式(真正的Driver就会在worker中的一台机器上,在哪台有Master决定)。

schedule的调用时机:每次有新的应用程序提交或者集群资源发生改变的时候(包括Executor的增加或减少,Worker的增加或减少)。

资源调度肯定是在master里面,因为master负责资源调度,每次资源变动或者注册程序,或新任务提交等一大堆的东西都会产生schedule()的调用,如RegisterApplication里面最后一行就是schedule()

进入schedule方法里面,为我们当前等待的应用程序调度当前可用的资源(每当一个新的应用程度进来的时候这个方法都会被调用)。或者说资源的可用状况改变,例如说那个executor挂掉了,或者worker挂掉了,或者新增加了机器,

(1)首先是判断master的状态,如果不是ALIVE的状态,这个资源调度就无从谈起,直接返回,也就是说Standby 的master不会进行application资源的调用。所以master必须是ALIVE的方式采用进行资源的调度。

(2)Random.shuffle()是将worker打乱打乱有利于负载均衡,workers是HashSet的数据结构里面是WorkInfo,WorkInfo里面的内容是注册的时候把这些信息注册进来的。shuffle方法中,打乱之前要判断一下要工作就必须要让worker的state是ALIVE的,所以就判断所有Worker中哪些是ALIVE级别的,ALIVE才能参与资源的分配工作

(3)在shuffle方法中,他的随机打乱是首先构建一个ArrayBuffer,把所有的worker都放进去,这个函数内部有定义了swap函数(这个函数是将两个索引上的位置进行交换)。然后从ArrayBuffer中最后一个元素开始一直到2就是第3个索引,每次都减1.nextInt(n)是取出0到n-1里面的一个整数。然后将取出的索引与n-1索引位置的替换,这样的话顺序就特别的乱。

(4)然后将这个shuffledAlivedWorkers的长度赋值到numWorkerAlive,并定义变量curPos

(5)遍历waitingDrivers队列,也就是等待被调度的Driver队列,使其的launched值为false,定义numWorkerVisited的值为0。waitingDrivers就是一个ArrayBuffer里面存放DriverInfo,DriverInfo里面的DriverDescription里面有supervise是因为如果是cluster模式,submit的时候有指定supervise在driver挂掉的时候会自动重启。

注意:循环遍历等待启动的driver(cluster模式才有driver等待启动,如果是client模式是不需要等待启动driver的因为你提交driver就启动了)。

(6)进行循环判断,条件为状态为Alive的worker数量大于0并且是没有被调度的launched=fasle,那么将这些worker进行shuffle,被调用的worker的数量(numWorkerVisited)的值加1,进一步判断,如果worker的剩余内存大于等于driver的进行调度所需的内存(driver.desc.mem)并且worker的剩余CPU数量大于等于driver调度所需的CPU数量(driver.desc.cores),(DriverInfo里面的DriverDescription中有当前Driver启动是需要的内存和cpu等要求的内容)。调用launchDriver方法,将这个Driver从driver的等待队列移除,并设置launched的值为true。curPos= (curPos + 1) % numWorkersAlive是将指针指向下一个worker。

(7)符合要求之后launchDriver,launch到循环时候的一个worker中去了,而这个worker是Shuffle之后的for循环随机产生的一个worker,因为每次都调用Shuffle所以顺序不一样,所以我们的driver放到这个worker上,这就保证负载均衡

launchDriver中首先先打印一个log,然后就是worker.addDrievr(driver)这个worker是当前master中对这个集群元数据的一个描述,需要保存元数据现在还是在master上。然后driver.worker = Some(worker),driver说明自己在哪个worker上,相互引用。然后就是关键点了worker.endpoint.send(LaunchDriver(driver.id, driver.desc)),这个就是发远程消息给worker,消息通信远程rpc。所以master发指令给worker,让远程的worker具体启动executor。启动之后driver的state就变成running了。

注意:所有schedule的时候首先就是进行所有driver级别的launch,这说明一件事情要现有driver才有其他的。

3、为Application分配资源

(1)在schedule中继续,最后一行是startExecutorsOnWorkers,为Application分配资源并启动Executors。

调度和启动Executor在Worker上为我们具体的当前程序。默认使用FIFO的方式,就是先满足第一个应用程序,再满足第二个应用程序...。Spark默认为应用程序启动Executor的方式是FIFO的方式,也就是所有提交的应用程序都是放在调度的等待队列中的,先进先出,只有满足了前面应用程序的资源分配的基础上才能满足下一个应用程序资源的分配。

我们现在是Master类中,Master直接调这个方法,但是具体在哪些Executor上启动executor还不知道。for循环waitingApps,要求app.coresLeft>0

equestedCores:总共需要的核数(--total-executor-cores指定,默认Int的最大值)

coresGranted:已经分配的值

假设整个程序要求1000个core,但是现在可用的只有100个,不能立即满足,所以可能在等待队列中,我们要看一下coresLeft(还需要的cores),如果>0就就还需要调度了,如果不大于0也就是不需要core就不会为应用程序分配executor

进入到for循环中这个是应用程序在提交的时候会配置很多参数,这里说每个executor需要的core有多少。过滤出worker是ALIVE的状态(才能分配executor),然后worker的内存要大于配置内存,然后进行排序,谁的core多就排在前面。排序后就产生可用的useableWorkers。

现在不应该考虑数据本地性,因为不是资源分配的内容,这个不是job调度,还没到计算,不考虑数据本地性。

(2)进入到scheduleExecutorsOnWorkers方法中

这个注释的意思:具体调度在这个worker上启动executor;

返回的是一个数组包含到每个worker上的赋值的具体的cores;

有2种启动worker的方式,第一个方式是spread out尝试把一个应用程序运行在尽可能多的worker上(我们把executor运行在尽可能多的node上是更符合数据本地性的表现,做基础建设的时候是这么考虑的,因为数据有可能在所有的worker上,这其实也有风险也可能有500台机器,数据存在200台机器上,但是这个是默认的情况,默认层面上从资源调度的层面上考虑最大化的数据本地性,调度层面上必须决定这个代码具体运行在哪几台机器上 。这个数据本地性只是顺便带来的,因为这样更好的响应了并发处理能力,不是考虑数据的本地性,所以是潜在的数据本地性);

第二种方式是把我们当前应用程序运行在尽可能少的worker上。在为每一个executor分配多少个core是可配置的,可以在submit的时候设置。在一个worker下面可能会有多个executor,前提是worker上有足够的cores和memory的时候。否则的话默认情况下分配一个executor把当前worker上所有的cores都拿走了。

一次在我们的executor上分配多个core是非常重要的,我们的集群现在4个worker,每个worker有16个cores。我们的用户要求3个executor,配置的时候最大可以48个,每个executor16个。

大致意思是说有两种分配模型,第一种是将executors分配到尽可能多的workers上;第二种与第一种相反。默认使用的是第一种模型,这种模型更加符合数据的本地性原则,为每个Executor分配的cores的个数是可以进行配置的(spark-submit 或者 spark-env.sh),如果设置了,多个executors可能会被分配在一个worker上(前提是该worker拥有足够的cores和memory),否则每个executor会充分利用worker上的cores,这种情况下一个executor会被分配在一个worker上。具体在集群上分配cores的时候会尽可能的满足我们的要求,如果需要的cores的个数大于workers中空闲的cores的个数,那么就先分配空闲的cores,尽可能的去满足要求。

spreadOutApps是让我们的应用程序尽可能多的运行在所有的node上

下面具体进入到scheduleExecutorsOnWorkers代码中

(3)回到startExecutorsOnWorkers方法中现在还没有真正的发生调度,在这里获得元数据信息之后,前面决定了在哪些机器上分配多少个Executor,每个Executor上分配多少个cores,下面就开始循环找出可用的workers

这里就具体直接分配了,就是先决定后分配

分配肯定是远程通信,循环遍历要分配个数的executor,把要分配的executor元数据信息交给addExecutor没后发送给worker

4、总结

(1)Master在接收搭配RegisterApplication之后创建一个applicationInfo对象 ,然后registerApplication方法中将application加入到队列,持久化application ,发送RegisteredApplication消息到ClientEndPoint,ClientPoint接收到消息后设置registered=true ,最后schedule()进行资源分配;

(2)在schedule()中,先打乱可以使用的workers,主要看在这个worker上内存和cpu的cores满不满足启动一个driver,满足的话则在这个worker上启动一个driver,直到找到一个合适的worker,然后launchDriver启动Driver,然后调用startExecutorsOnWorkers;

(3)在startExecutorsOnWorkers 中,首先筛选出可以使用的workers,主要看内存和cpu ,然后调用shceduleExecutorsOnWorkers得到要分配的信息 ,shceduleExecutorsOnWorkers方法中主要是①获取当前的app还有多少cpuCore没有被分配 ②筛选出可以用来启动executor的workers saber在筛选出来的worker上面进行executor的分配的信息的记载在assignedCores中 并返回;

(4)根据上面得到的要分配的信息,调用allocateWorkerResourceToExecutors()在每一个worker上面分配资源启动executor 。在allocateWorkerResourceToExecutors方法中主要是①计算在当前的worker上启动几个executor ②计算在当前的worker上一个executor会分配几个cpuCores ③调用launchExecutor进行启动executor

Spark资源调度分配相关推荐

  1. Spark 资源调度及任务调度

    1.  资源分配 通过SparkSubmit进行提交应用后,首先会创建Client将应用程序(字节码文件.class)包装成Driver,并将其注册到Master.Master收到Client的注册请 ...

  2. Spark资源调度机制源码分析--基于spreadOutApps及非spreadOutApps两种资源调度算法

    Spark资源调度机制源码分析--基于spreadOutApps及非spreadOutApps两种资源调度算法 1.spreadOutApp尽量平均分配到每个executor上: 2.非spreadO ...

  3. 【Spark-core学习之六】 Spark资源调度和任务调度

    环境 虚拟机:VMware 10 Linux版本:CentOS-6.5-x86_64 客户端:Xshell4 FTP:Xftp4 jdk1.8 scala-2.10.4(依赖jdk1.8) spark ...

  4. Spark _09资源调度和任务调度

    先说一下master启动后发生了什么? Spark资源调度和任务调度的流程: 启动集群后,Worker节点会向Master节点汇报资源情况,Master掌握了集群资源情况. 当Spark提交一个App ...

  5. spark 算子例子_10年大数据架构师,用一文带你玩转Spark计算框架,你能读懂吗?...

    首先明确一点:学计算框架主要就是学2部分: 1.资源调度 2.任务调度 写一个spark程序包含加载配置文件,创建上下文,创建RDD , 调用RDD的算子,用户在算子中自定义的函数 map端:狭窄的理 ...

  6. spark on yarn 完全分部署_大数据Spark面试题(一)

    1.spark的有几种部署模式,每种模式特点?(☆☆☆☆☆) 1)本地模式 Spark不一定非要跑在hadoop集群,可以在本地,起多个线程的方式来指定.将Spark应用以多线程的方式直接运行在本地, ...

  7. rdd分片 spark_大数据面试题(Spark(一))

    大数据面试题(Spark(一)) 大家好,我是蓦然,这一系列大数据面试题是我秋招时自己总结准备的,后续我会总结出PDF版,希望对大家有帮助!1.spark的有几种部署模式,每种模式特点?(☆☆☆☆☆) ...

  8. spark driver HA

    实验环境:  zookeeper-3.4.6  Spark:1.6.0  简介:  本篇博客将从以下几点组织文章:  一:Spark 构建高可用HA架构  二:动手实战构建高可用HA  三:提交程序测 ...

  9. 7 Spark开荒_架构原理

    文章目录 开荒 1.1 Spark定义 1.2 Spark and Hadoop 1.2.1 时间线 1.2.2 功能区别 1.3 Spark核心模块 1.4 Spark的运行环境 1.4.1 Loc ...

最新文章

  1. 物联网:从源头为生产环境安全把关
  2. Class.getResource()、ClassLoader.getResource()和this.class.getClassLoader()解析
  3. Java多线程之线程虚假唤醒
  4. hadoop配置后无法通过主机名:50070访问,只能通过ip:50070访问
  5. MVDR波束形成MATLAB实现
  6. Windows UI风格的设计(11)
  7. 2019计算机组成原理及答案,2019计算机组成原理复习题(一)
  8. iOS 开发之 - iOS6适配 - 导航栏按钮透明方法
  9. mysql.sys_MySQL sys Schema
  10. 利用Visio绘制网络拓扑图要注意些什么
  11. [HDU] 2611 Sequence two -优先队列和一般队列一起使用。
  12. 语音识别模块 LD3320
  13. JVM Specification 9th Edition (4) Chapter 3. Compiling for the Java Virtual Machine
  14. 查找整数的位置c语言,1-1 编程总结:查找整数
  15. 自定义list-style的兼容性问题解决办法
  16. python字符串格式化是什么意思_Python字符串格式化中%s和%d之间有什么区别?...
  17. 卸载趋势杀毒软件的步骤
  18. Android端搭建web服务器
  19. 使用hardhat 开发以太坊智能合约-验证合约
  20. Dubbo优雅上下线

热门文章

  1. @RequestMapping 和 @GetMapping @PostMapping 区别
  2. linux-虚拟机安装
  3. python不用加号实现加法
  4. C# DateTime简单的定时器用法
  5. EhLib TitleButton SVisibleColumnsEh = '错误的列';
  6. 设计模式——简单工厂
  7. Python调用C的方法
  8. U-Boot-2009-03移植笔记(移植准备)
  9. TCP传输过程中丢包问题
  10. 代码里-3gt;gt;1是-2但3gt;gt;1是1,-3/2却又是-1,为什么?