本文基于 Spark 2.4.4 版本的源码,试图分析其 Core 模块的部分实现原理,其中如有错误,请指正。为了简化论述,将部分细节放到了源码中作为注释,因此正文中是主要内容。

第一部分内容见:

Spark学习:Spark源码和调优简介 Spark Core (一)

Task 阶段

下面是重头戏submitMissingTasks,这个方法负责生成 TaskSet,并且将它提交给 TaskScheduler 低层调度器。 partitionsToCompute计算有哪些分区是待计算的。根据 Stage 类型的不同,findMissingPartitions的计算方法也不同。

// DAGScheduler.scala
private def submitMissingTasks(stage: Stage, jobId: Int) {logDebug("submitMissingTasks(" + stage + ")")// First figure out the indexes of partition ids to compute.val partitionsToCompute: Seq[Int] = stage.findMissingPartitions()...// ResultStage.scala
override def findMissingPartitions(): Seq[Int] = {val job = activeJob.get(0 until job.numPartitions).filter(id => !job.finished(id))
}
// ActiveJob.scala
val numPartitions = finalStage match {// 对于ResultStage,不一定得到当前rdd的所有分区,例如first()和lookup()的Action,// 因此这里是r.partitions而不是r.rdd.partitionscase r: ResultStage => r.partitions.lengthcase m: ShuffleMapStage => m.rdd.partitions.length
}// ShuffleMapStage.scala
override def findMissingPartitions(): Seq[Int] = {mapOutputTrackerMaster.findMissingPartitions(shuffleDep.shuffleId).getOrElse(0 until numPartitions)
}// MapOutputTrackerMaster.scala
def findMissingPartitions(shuffleId: Int): Option[Seq[Int]] = {shuffleStatuses.get(shuffleId).map(_.findMissingPartitions())
}

这个outputCommitCoordinator是由SparkEnv维护的OutputCommitCoordinator对象,它决定到底谁有权利向输出写数据。在 Executor 上的请求会通过他持有的 Driver 的OutputCommitCoordinatorEndpoint的引用发送给 Driver 处理

// DAGScheduler.scala...// Use the scheduling pool, job group, description, etc. from an ActiveJob associated// with this Stageval properties = jobIdToActiveJob(jobId).propertiesrunningStages += stage// 在检测Tasks是否serializable之前,就要SparkListenerStageSubmitted,// 如果不能serializable,那就在这**之后**给一个SparkListenerStageCompletedstage match {case s: ShuffleMapStage =>outputCommitCoordinator.stageStart(stage = s.id, maxPartitionId = s.numPartitions - 1)case s: ResultStage =>outputCommitCoordinator.stageStart(stage = s.id, maxPartitionId = s.rdd.partitions.length - 1)}...

getPreferredLocs计算每个分区的最佳计算位置,它实际上是调用getPreferredLocsInternal这个函数。这个函数是一个关于visit: HashSet[(RDD[_], Int)]的递归函数,visit 用(rdd, partition)元组唯一描述一个分区。getPreferredLocs的计算逻辑是这样的:

  1. 如果已经 visit 过了,就返回 Nil
  2. 如果是被 cached 的,通过getCacheLocs返回 cache 的位置
  3. 如果 RDD 有自己的偏好位置,例如输入 RDD,那么使用rdd.preferredLocations返回它的偏好位置
  4. 如果还没返回,但 RDD 有窄依赖,那么遍历它的所有依赖项,返回第一个具有位置偏好的依赖项的值

理论上,一个最优的位置选取应该尽可能靠近数据源以减少网络传输,但目前版本的 Spark 还没有实现

// DAGScheduler.scala...val taskIdToLocations: Map[Int, Seq[TaskLocation]] = try {stage match {case s: ShuffleMapStage =>partitionsToCompute.map { id => (id, getPreferredLocs(stage.rdd, id))}.toMapcase s: ResultStage =>partitionsToCompute.map { id =>val p = s.partitions(id)(id, getPreferredLocs(stage.rdd, p))}.toMap}} catch {case NonFatal(e) =>// 如果有非致命异常就创建一个新的Attempt,并且abortStage(这还不致命么)stage.makeNewStageAttempt(partitionsToCompute.size)listenerBus.post(SparkListenerStageSubmitted(stage.latestInfo, properties))abortStage(stage, s"Task creation failed: $en${Utils.exceptionString(e)}", Some(e))runningStages -= stagereturn}...

下面,我们开始 attempt 这个 Stage,我们需要将 RDD 对象和依赖通过closureSerializer序列化成taskBinaryBytes,然后广播得到taskBinary。当广播变量过大时,会产生一条Broadcasting large task binary with size的 INFO。

// DAGScheduler.scala...stage.makeNewStageAttempt(partitionsToCompute.size, taskIdToLocations.values.toSeq)// 如果没有Task要执行,实际上就是skip了,那么就没有Submission Time这个字段if (partitionsToCompute.nonEmpty) {stage.latestInfo.submissionTime = Some(clock.getTimeMillis())}listenerBus.post(SparkListenerStageSubmitted(stage.latestInfo, properties))// TODO: 也许可以将`taskBinary`放到Stage里面以避免对它序列化多次。// 一堆注释看不懂var taskBinary: Broadcast[Array[Byte]] = nullvar partitions: Array[Partition] = nulltry {var taskBinaryBytes: Array[Byte] = null// taskBinaryBytes and partitions are both effected by the checkpoint status. We need// this synchronization in case another concurrent job is checkpointing this RDD, so we get a// consistent view of both variables.RDDCheckpointData.synchronized {taskBinaryBytes = stage match {case stage: ShuffleMapStage =>JavaUtils.bufferToArray(closureSerializer.serialize((stage.rdd, stage.shuffleDep): AnyRef))case stage: ResultStage =>// 注意这里的stage.func已经被ClosureCleaner清理过了JavaUtils.bufferToArray(closureSerializer.serialize((stage.rdd, stage.func): AnyRef))}partitions = stage.rdd.partitions}...// 广播taskBinary = sc.broadcast(taskBinaryBytes)} catch {// In the case of a failure during serialization, abort the stage.case e: NotSerializableException =>abortStage(stage, "Task not serializable: " + e.toString, Some(e))runningStages -= stage...}

下面,我们根据 Stage 的类型生成 Task。

// DAGScheduler.scala...val tasks: Seq[Task[_]] = try {val serializedTaskMetrics = closureSerializer.serialize(stage.latestInfo.taskMetrics).array()stage match {case stage: ShuffleMapStage =>stage.pendingPartitions.clear()partitionsToCompute.map { id =>val locs = taskIdToLocations(id)val part = partitions(id)stage.pendingPartitions += idnew ShuffleMapTask(stage.id, stage.latestInfo.attemptNumber,taskBinary, part, locs, properties, serializedTaskMetrics, Option(jobId),Option(sc.applicationId), sc.applicationAttemptId, stage.rdd.isBarrier())}case stage: ResultStage =>partitionsToCompute.map { id =>val p: Int = stage.partitions(id)val part = partitions(p)val locs = taskIdToLocations(id)new ResultTask(stage.id, stage.latestInfo.attemptNumber,taskBinary, part, locs, id, properties, serializedTaskMetrics,Option(jobId), Option(sc.applicationId), sc.applicationAttemptId,stage.rdd.isBarrier())}}} catch {...}

我们将生成的tasks包装成一个TaskSet,并且提交给taskScheduler

// DAGScheduler.scala...if (tasks.nonEmpty) {logInfo(s"Submitting ${tasks.size} missing tasks from $stage (${stage.rdd}) (first 15 " +s"tasks are for partitions ${tasks.take(15).map(_.partitionId)})")taskScheduler.submitTasks(new TaskSet(tasks.toArray, stage.id, stage.latestInfo.attemptNumber, jobId, properties))} else {

如果 tasks 是空的,说明任务就已经完成了,打上 DEBUG 日志,并且调用submitWaitingChildStages

// Because we posted SparkListenerStageSubmitted earlier, we should mark// the stage as completed here in case there are no tasks to runmarkStageAsFinished(stage, None)stage match {case stage: ShuffleMapStage =>logDebug(s"Stage ${stage} is actually done; " +s"(available: ${stage.isAvailable}," +s"available outputs: ${stage.numAvailableOutputs}," +s"partitions: ${stage.numPartitions})")markMapStageJobsAsFinished(stage)case stage : ResultStage =>logDebug(s"Stage ${stage} is actually done; (partitions: ${stage.numPartitions})")}submitWaitingChildStages(stage)}
}

Shuffle

Shuffle 机制是 Spark Core 的核心内容。在 Stage 和 Stage 之间,Spark 需要 Shuffle 数据。这个流程包含上一个 Stage 上的 Shuffle Write,中间的数据传输,以及下一个 Stage 的 Shuffle Read。如下图所示:

Shuffle 类操作常常发生在宽依赖的 RDD 之间,这类算子需要将多个节点上的数据拉取到同一节点上进行计算,其中存在大量磁盘 IO、序列化和网络传输开销,它们可以分为以下几点来讨论。

当 Spark 中的某个节点故障之后,常常需要重算 RDD 中的某几个分区。对于窄依赖而言,父 RDD 的一个分区只对应一个子 RDD 分区,因此丢失子 RDD 的分区,重算整个父 RDD 分区是必要的。而对于宽依赖而言,父 RDD 会被多个子 RDD 使用,而可能当前丢失的子 RDD 只使用了父 RDD 中的某几个分区的数据,而我们仍然要重新计算整个父 RDD,这造成了计算资源的浪费。

当使用 Aggregate 类(如groupByKey)或者 Join 类这种 Shuffle 算子时,如果选择的key上的数据是倾斜(skew)的,会导致部分节点上的负载增大。对于这种情况除了可以增加 Executor 的内存,还可以重新选择分区函数(例如在之前的 key 上加盐)来平衡分区。

Shuffle Read 操作容易产生 OOM,其原因是尽管在BlockStoreShuffleReader中会产生外部排序的resultIter,但在这之前,ExternalAppendOnlyMap先要从 BlockManager 拉取数据(k, v)到自己的currentMap中,如果这里的v很大,那么就会导致 Executor 的 OOM 问题。可以从PairRDDFunctions[1]的文档中佐证这一点。在Dataset中并没有reduceByKey,原因可能与 Catalyst Optimizer 的优化[2]有关,但考虑到groupByKey还是比较坑的,感觉这个举措并不明智。

Shuffle 考古

在 Spark0.8 版本前,Spark 只有 Hash Based Shuffle 的机制。在这种方式下,假定 Shuffle Write 阶段(有的也叫 Map 阶段)有W个 Task,在 Shuffle Read 阶段(有的也叫 Reduce 阶段)有R个 Task,那么就会产生W*R个文件。这样的坏处是对文件系统产生很大压力,并且 IO 也差(随机读写)。由于这些文件是先全量在内存里面构造,再 dump 到磁盘上,所以 Shuffle 在 Write 阶段就很可能 OOM。

为了解决这个问题,在 Spark 0.8.1 版本加入了 File Consolidation,以求将W个 Task 的输出尽可能合并。现在,Executor 上的每一个执行单位[3]都生成自己独一份的文件。假定所有的 Executor 总共有C个核心,每个 Task 占用T个核心,那么总共有C/T个执行单位。考虑极端情况,如果C==T,那么任务实际上是串行的,所以写一个文件就行了。因此,最终会生成C/T*R个文件。

但这个版本仍然没有解决 OOM 的问题。虽然对于 reduce 这类操作,比如count,因为是来一个 combine 一个,所以只要你的 V 不是数组,也不想强行把结果 concat 成一个数组,一般都没有较大的内存问题。但是考虑如果我们执行groupByKey这样的操作,在 Read 阶段每个 Task 需要得到得到自己负责的 key 对应的所有 value,而我们现在每个 Task 得到的是若干很大的文件,这个文件里面的 key 是杂乱无章的。如果我们需要得到一个 key 对应的所有 value,那么我们就需要遍历这个文件,将 key 和对应的 value 全部存放在一个结构比如 HashMap 中,并进行合并。因此,我们必须保证这个 HashMap 足够大。既然如此,我们很容易想到一个基于外部排序的方案,我们为什么不能对 key 进行外排呢?确实在 Hadoop MapReduce 中会做归并排序,因此 Reducer 侧的数据按照 key 组织好的了。但 Spark 在这个版本没有这么做,并且 Spark 在下一个版本就这么做了。

在 Spark 0.9 版本之后,引入了ExternalAppendOnlyMap,通过这个结构,SparkShuffle 在 combine 的时候如果内存不够,就能 Spill 到磁盘,并在 Spill 的时候进行排序。当然,内存还是要能承载一个 KV 的[4],我们将在稍后的源码分析中深入研究这个问题。

终于在 Spark1.1 版本之后引入了 Sorted Based Shuffle。此时,Shuffle Write 阶段会按照 Partition ID 以及 key 对记录进行排序。同时将全部结果写到一个数据文件中,同时生成一个索引文件,Shuffle Read 的 Task 可以通过该索引文件获取相关的数据。

在 Spark 1.5,Tungsten[5]内存管理机制成为了 Spark 的默认选项。如果关闭spark.sql.tungsten.enabled,Spark 将采用基于 Kryo 序列化的列式存储格式。

Shuffle Read 端源码分析

Shuffle Read 一般位于一个 Stage 的开始,这时候上一个 Stage 会给我们留下一个 ShuffledRDD。在它的compute方法中会首先取出shuffleManager: ShuffleManagerShuffleManager是一个 Trait,它的两个实现就是org.apache.spark.shuffle.hash.HashShuffleManagerorg.apache.spark.shuffle.sort.SortShuffleManager

override def compute(split: Partition, context: TaskContext): Iterator[(K, C)] = {val dep = dependencies.head.asInstanceOf[ShuffleDependency[K, V, C]]val metrics = context.taskMetrics().createTempShuffleReadMetrics()SparkEnv.get.shuffleManager // 由SparkEnv维护的ShuffleManager
...

接着,我们调用shuffleManager.getReader方法返回一个BlockStoreShuffleReader,它用来读取[split.index, split.index + 1)这个区间内的 Shuffle 数据。接着,它会调用SparkEnv.get.mapOutputTrackergetMapSizesByExecutorId方法。

getMapSizesByExecutorId返回一个迭代器Iterator[(BlockManagerId, Seq[(BlockId, Long, Int)])],表示对于某个BlockManagerId,它所存储的 Shuffle Write 中间结果,包括BlockId、大小和 index。 具体实现上,这个方法首先从传入的dep.shuffleHandle中获得当前 Shuffle 过程的唯一标识shuffleId,然后它会从自己维护的shuffleStatuses中找到shuffleId对应的MapStatus,它应该有endPartition-startPartition这么多个。接着,对这些MapStatus,调用convertMapStatuses获得迭代器。在compute中,实际上就只取当前split这一个 Partition 的 Shuffle 元数据。

....getReader(dep.shuffleHandle, split.index, split.index + 1, context, metrics) // 返回一个BlockStoreShuffleReader.read().asInstanceOf[Iterator[(K, C)]]
}

ShuffleManager通过调用BlockStoreShuffleReader.read返回一个迭代器Iterator[(K, C)]。在BlockStoreShuffleReader.read方法中,首先得到一个ShuffleBlockFetcherIterator

// BlockStoreShuffleReader.scala
override def read(): Iterator[Product2[K, C]] = {val wrappedStreams = new ShuffleBlockFetcherIterator(...) // 返回一个ShuffleBlockFetcherIterator.toCompletionIterator // 返回一个Iterator[(BlockId, InputStream)]

ShuffleBlockFetcherIteratorfetchUpToMaxBytes()fetchLocalBlocks()分别读取 remote 和 local 的 Block。在拉取远程数据的时候,会统计bytesInFlightreqsInFlight等信息,并使用maxBytesInFlightmaxReqsInFlight节制。同时,为了允许 5 个并发同时拉取数据,还会设置targetRemoteRequestSize = math.max(maxBytesInFlight / 5, 1L)去请求每次拉取数据的最大大小。通过ShuffleBlockFetcherIterator.splitLocalRemoteBytes,现在改名叫partitionBlocksByFetchMode函数,可以将 blocks 分为 Local 和 Remote 的。关于两个函数的具体实现,将单独讨论。

val serializerInstance = dep.serializer.newInstance()// Create a key/value iterator for each streamval recordIter = wrappedStreams.flatMap { case (blockId, wrappedStream) =>serializerInstance.deserializeStream(wrappedStream).asKeyValueIterator}// Update the context task metrics for each record read.// CompletionIterator相比普通的Iterator的区别就是在结束之后会调用一个completion函数// CompletionIterator通过它伴生对象的apply方法创建,传入第二个参数即completionFunctionval metricIter = CompletionIterator[(Any, Any), Iterator[(Any, Any)]](recordIter.map { record =>readMetrics.incRecordsRead(1)record},context.taskMetrics().mergeShuffleReadMetrics())// An interruptible iterator must be used here in order to support task cancellationval interruptibleIter = new InterruptibleIterator[(Any, Any)](context, metricIter "(Any, Any)")...

经过一系列转换,我们得到一个interruptibleIter。接下来,根据是否有 mapSideCombine 对它进行聚合。这里的dep来自于BaseShuffleHandle对象,它是一个ShuffleDependency。在前面 Spark 的任务调度中已经提到,ShuffleDependency就是宽依赖。

// BlockStoreShuffleReader.scala...val aggregatedIter: Iterator[Product2[K, C]] = if (dep.aggregator.isDefined) {if (dep.mapSideCombine) {// We are reading values that are already combinedval combinedKeyValuesIterator = interruptibleIter.asInstanceOf[Iterator[(K, C)]]dep.aggregator.get.combineCombinersByKey(combinedKeyValuesIterator, context)} else {// We don't know the value type, but also don't care -- the dependency *should*// have made sure its compatible w/ this aggregator, which will convert the value// type to the combined type Cval keyValuesIterator = interruptibleIter.asInstanceOf[Iterator[(K, Nothing)]]dep.aggregator.get.combineValuesByKey(keyValuesIterator, context)}} else {interruptibleIter.asInstanceOf[Iterator[Product2[K, C]]]}

这里的aggregatorAggregator[K, V, C],这里的KVC与熟悉combineByKey的是一样的。需要注意的是,在 combine 的过程中借助了ExternalAppendOnlyMap,这是之前提到的在 Spark 0.9 中引入的重要特性。通过调用insertAll方法能够将interruptibleIter内部的数据添加到ExternalAppendOnlyMap中,并在之后更新 MemoryBytesSpilled、DiskBytesSpilled、PeakExecutionMemory 三个统计维度,这也是我们在 Event Log 中所看到的统计维度。

// Aggregator.scala
case class Aggregator[K, V, C] (createCombiner: V => C,mergeValue: (C, V) => C,mergeCombiners: (C, C) => C) {def combineValuesByKey(iter: Iterator[_ <: Product2[K, V]],context: TaskContext): Iterator[(K, C)] = {val combiners = new ExternalAppendOnlyMap[K, V, C](createCombiner, mergeValue, mergeCombiners "K, V, C")combiners.insertAll(iter)updateMetrics(context, combiners)combiners.iterator}def combineCombinersByKey(iter: Iterator[_ <: Product2[K, C]],context: TaskContext): Iterator[(K, C)] = {val combiners = new ExternalAppendOnlyMap[K, C, C](identity, mergeCombiners, mergeCombiners "K, C, C")// 同上}/** Update task metrics after populating the external map. */private def updateMetrics(context: TaskContext, map: ExternalAppendOnlyMap[_, _, _]): Unit = {Option(context).foreach { c =>c.taskMetrics().incMemoryBytesSpilled(map.memoryBytesSpilled)c.taskMetrics().incDiskBytesSpilled(map.diskBytesSpilled)c.taskMetrics().incPeakExecutionMemory(map.peakMemoryUsedBytes)}}
}

在获得 Aggregate 迭代器之后,最后一步,我们要进行排序,这时候就需要用到ExternalSorter这个对象。

// BlockStoreShuffleReader.scala
...val resultIter = dep.keyOrdering match {case Some(keyOrd: Ordering[K]) =>val sorter = new ExternalSorter[K, C, C](context, ordering = Some(keyOrd "K, C, C"), serializer = dep.serializer)sorter.insertAll(aggregatedIter)context.taskMetrics().incMemoryBytesSpilled(sorter.memoryBytesSpilled)context.taskMetrics().incDiskBytesSpilled(sorter.diskBytesSpilled)context.taskMetrics().incPeakExecutionMemory(sorter.peakMemoryUsedBytes)// Use completion callback to stop sorter if task was finished/cancelled.context.addTaskCompletionListener[Unit](_ => {sorter.stop()})CompletionIterator[Product2[K, C], Iterator[Product2[K, C]]](sorter.iterator, sorter.stop( "Product2[K, C], Iterator[Product2[K, C]]"))case None =>aggregatedIter}

ExternalAppendOnlyMap 和 AppendOnlyMap

我们查看ExternalAppendOnlyMap的实现。ExternalAppendOnlyMap拥有一个currentMap管理在内存中存储的键值对们。和一个DiskMapIterator的数组spilledMaps,表示 Spill 到磁盘上的键值对们。

@volatile private[collection] var currentMap = new SizeTrackingAppendOnlyMap[K, C]
private val spilledMaps = new ArrayBuffer[DiskMapIterator]

先来看currentMap,它是一个SizeTrackingAppendOnlyMap。这个东西实际上就是一个AppendOnlyMap,不过给它加上了统计数据大小的功能,主要是借助于SizeTrackerafterUpdateresetSamples两个方法。我们知道非序列化对象在内存存储上是不连续的[6],我们需要通过遍历迭代器才能知道对象的具体大小,而这个开销是比较大的。因此,通过SizeTracker我们可以得到一个内存空间占用的估计值,从来用来判定是否需要 Spill。 下面,我们来看currentMap.insertAll这个方法

// AppendOnlyMap.scala
def insertAll(entries: Iterator[Product2[K, V]]): Unit = {if (currentMap == null) {throw new IllegalStateException("Cannot insert new elements into a map after calling iterator")}// 我们复用update函数,从而避免每一次都创建一个新的闭包(编程环境这么恶劣的么。。。)var curEntry: Product2[K, V] = nullval update: (Boolean, C) => C = (hadVal, oldVal) => {if (hadVal)// 如果不是第一个V,就merge// mergeValue: (C, V) => C,mergeValue(oldVal, curEntry._2)else// 如果是第一个V,就新建一个C// createCombiner: V => C,createCombiner(curEntry._2)}while (entries.hasNext) {curEntry = entries.next()val estimatedSize = currentMap.estimateSize()if (estimatedSize > _peakMemoryUsedBytes) {_peakMemoryUsedBytes = estimatedSize}if (maybeSpill(currentMap, estimatedSize)) {// 如果发生了Spill,就重新创建一个currentMapcurrentMap = new SizeTrackingAppendOnlyMap[K, C]}// key: K, updateFunc: (Boolean, C) => CcurrentMap.changeValue(curEntry._1, update)addElementsRead()}
}

可以看出,在insertAll中主要做了两件事情:

遍历curEntry <- entries,并通过传入的update函数进行 Combine 在内部存储上,AppendOnlyMap,包括后面将看到的一些其他 KV 容器,都倾向于将(K, V)对放到哈希表的相邻两个位置,这样的好处应该是避免访问时再进行一次跳转。
下面的代码是AppendOnlyMap.changeValue的实现,它接受一个updateFunc用来更新一个指定K的值。updateFunc接受第一个布尔值,用来表示是不是首次出现这个 key。我们需要注意,AppendOnlyMap里面 null 是一个合法的键,但同时null又作为它里面的哈希表的默认填充,因此它里面有个对null特殊处理的过程。

// AppendOnlyMap.scala// 这里的nullValue和haveNullValue是用来单独处理k为null的情况的,下面会详细说明private var haveNullValue = false// 有关null.asInstanceOf[V]的花里胡哨的语法,详见 https://stackoverflow.com/questions/10749010/if-an-int-cant-be-null-what-does-null-asinstanceofint-meanprivate var nullValue: V = null.asInstanceOf[V]def changeValue(key: K, updateFunc: (Boolean, V) => V): V = {// updateFunc就是从insertAll传入的updateassert(!destroyed, destructionMessage)val k = key.asInstanceOf[AnyRef]if (k.eq(null)) {if (!haveNullValue) {// 如果这时候还没有null的这个key,就新创建一个incrementSize()}nullValue = updateFunc(haveNullValue, nullValue)haveNullValue = truereturn nullValue}var pos = rehash(k.hashCode) & maskvar i = 1while (true) {// 乘以2的原因是他按照K1 V1 K2 V2这样放的val curKey = data(2 * pos)if (curKey.eq(null)) {// 如果对应的key不存在,就新创建一个// 这也是为什么前面要单独处理null的原因,这里的null被用来做placeholder了// 可以看到,第一个参数传的false,第二个是花里胡哨的nullval newValue = updateFunc(false, null.asInstanceOf[V])data(2 * pos) = kdata(2 * pos + 1) = newValue.asInstanceOf[AnyRef]incrementSize()return newValue} else if (k.eq(curKey) || k.equals(curKey)) { // 又是从Java继承下来的花里胡哨的特性val newValue = updateFunc(true, data(2 * pos + 1).asInstanceOf[V])data(2 * pos + 1) = newValue.asInstanceOf[AnyRef]return newValue} else {// 再散列val delta = ipos = (pos + delta) & maski += 1}}null.asInstanceOf[V] // Never reached but needed to keep compiler happy}

  1. 估计currentMap的当前大小,并调用currentMap.maybeSpill向磁盘 Spill。我们将在单独的章节论述SizeTracker如何估计集合大小,先看具体的 Spill 过程,可以梳理出shouldSpill==true的情况 1、 elementsRead % 32 == 0 2、 currentMemory >= myMemoryThreshold 3、 通过acquireMemory请求的内存不足以扩展到2 * currentMemory的大小,关于这一步骤已经在内存管理部分详细说明了,在这就不详细说了。
// Spillable.scala
protected def maybeSpill(collection: C, currentMemory: Long): Boolean = {var shouldSpill = falseif (elementsRead % 32 == 0 && currentMemory >= myMemoryThreshold) {val amountToRequest = 2 * currentMemory - myMemoryThreshold// 调用对应MemoryConsumer的acquireMemory方法val granted = acquireMemory(amountToRequest)myMemoryThreshold += grantedshouldSpill = currentMemory >= myMemoryThreshold}shouldSpill = shouldSpill || _elementsRead > numElementsForceSpillThreshold...// MemoryConsumer.scala
public long acquireMemory(long size) {long granted = taskMemoryManager.acquireExecutionMemory(size, this);used += granted;return granted;
}

下面就是真正 Spill 的过程了,其实就是调用 spill 函数。注意_memoryBytesSpilled就是我们在 Event Log 里面看到的 Memory Spill 的统计量,他表示在 Spill 之后我们能够释放多少内存:

// Spillable.scala...// Actually spillif (shouldSpill) {_spillCount += 1 // 统计Spill的次数logSpillage(currentMemory)spill(collection)_elementsRead = 0 // 重置强制Spill计数器_elementsRead_memoryBytesSpilled += currentMemoryreleaseMemory()}shouldSpill
}

insertAll之后,会返回一个迭代器,我们查看相关方法。可以发现如果spilledMaps都是空的,也就是没有 Spill 的话,就返回内存里面currentMapiterator,否则就返回一个ExternalIterator

对于第一种情况,会用SpillableIterator包裹一下。这个类在很多地方有定义,包括ExternalAppendOnlyMap.scalaExternalSorter.scala[7]里面。在当前使用的实现中,它实际上就是封装了一下Iterator,使得能够 spill,转换成CompletionIterator等。

对于第二种情况,ExternalIterator比较有趣,将在稍后进行讨论。

// ExternalAppendOnlyMap.scala
override def iterator: Iterator[(K, C)] = {...if (spilledMaps.isEmpty) {// 如果没有发生SpilldestructiveIterator(currentMap.iterator)} else {// 如果发生了Spillnew ExternalIterator()}
}def destructiveIterator(inMemoryIterator: Iterator[(K, C)]): Iterator[(K, C)] = {readingIterator = new SpillableIterator(inMemoryIterator)readingIterator.toCompletionIterator
}

currentMap.iterator实际上就是一个朴素无华的迭代器的实现。

// AppendOnlyMap.scala
def nextValue(): (K, V) = {if (pos == -1) {    // Treat position -1 as looking at the null valueif (haveNullValue) {return (null.asInstanceOf[K], nullValue)}pos += 1}while (pos < capacity) {if (!data(2 * pos).eq(null)) {return (data(2 * pos).asInstanceOf[K], data(2 * pos + 1).asInstanceOf[V])}pos += 1}null
}

ExternalSorter

ExternalSorter的作用是对输入的(K, V)进行排序,以产生新的(K, C)对,排序过程中可选择进行 combine,否则输出的C == V。需要注意的是ExternalSorter不仅被用在 Shuffle Read 端,也被用在了 Shuffle Write 端,所以在后面会提到 Map-side combine 的概念。ExternalSorter具有如下的参数,在给定ordering之后,ExternalSorter就会按照它来排序。在 Spark 源码中建议如果希望进行 Map-side combining 的话,就指定ordering,否则就可以设置orderingnull

private[spark] class ExternalSorter[K, V, C](context: TaskContext,aggregator: Option[Aggregator[K, V, C]] = None,partitioner: Option[Partitioner] = None,ordering: Option[Ordering[K]] = None,serializer: Serializer = SparkEnv.get.serializer)extends Spillable[WritablePartitionedPairCollection[K, C]](context.taskMemoryManager( "WritablePartitionedPairCollection[K, C]"))

由于ExternalSorter支持有 combine 和没有 combine 的两种模式,因此对应设置了两个对象。map = new PartitionedAppendOnlyMap[K, C],以及buffer = new PartitionedPairBuffer[K, C]。其中,PartitionedAppendOnlyMap就是一个SizeTrackingAppendOnlyMapPartitionedPairBuffer则继承了WritablePartitionedPairCollection,由于不需要按照 key 进行 combine,所以它的实现接近于一个 Array。 ExternalSorter.insertAll方法和之前看到的ExternalAppendOnlyMap方法是大差不差的,他也会对可以聚合的特征进行聚合,并且 TODO 上还说如果聚合之后的 reduction factor 不够明显,就停止聚合。

相比之前的 aggregator,ExternalSorter不仅能 aggregate,还能 sort。ExternalSorter在 Shuffle Read 和 Write 都有使用,而ExternalAppendOnlyMap只有在 Shuffle Read 中使用。所以为啥不直接搞一个ExternalSorter而是还要在前面垫一个ExternalAppendOnlyMap呢?为此,我们总结比较一下这两者:

首先,在insertAll时,ExternalAppendOnlyMap是一定要做 combine 的,而ExternalSorter可以选择是否做 combine,为此还有PartitionedAppendOnlyMapPartitionedPairBuffer两种数据结构。

其次,在做排序时,ExternalAppendOnlyMap默认对内存中的对象不进行排序,只有当要 Spill 的时候才会返回AppendOnlyMap.destructiveSortedIterator的方式将内存里面的东西有序写入磁盘。在返回迭代器时,如果没有发生 Spill,那么ExternalAppendOnlyMap返回没有经过排序的currentMap,否则才通过ExternalIterator进行排序。而对ExternalSorter而言排序与否在于有没有指定ordering。如果进行排序的话,那么它会首先考虑 Partition,再考虑 Key。

ExternalIterator

下面我们来看ExternalAppendOnlyMapExternalIterator的实现。它是一个典型的外部排序的实现,有一个 PQ 用来 merge。不过这次的迭代器换成了destructiveSortedIterator,也就是我们都是排序的了。这个道理也是显而易见的,不 sort 一下,我们怎么和硬盘上的数据做聚合呢?

// ExternalAppendOnlyMap.scala
val mergeHeap = new mutable.PriorityQueue[StreamBuffer]
val sortedMap = destructiveIterator(currentMap.destructiveSortedIterator(keyComparator))
// 我们得到一个Array的迭代器
val inputStreams = (Seq(sortedMap) ++ spilledMaps).map(it => it.buffered)inputStreams.foreach { it =>val kcPairs = new ArrayBuffer[(K, C)]// 读完所有具有所有相同hash(key)的序列,并创建一个StreamBuffer// 需要注意的是,由于哈希碰撞的原因,里面可能有多个keyreadNextHashCode(it, kcPairs)if (kcPairs.length > 0) {mergeHeap.enqueue(new StreamBuffer(it, kcPairs))}
}

我们先来看看destructiveSortedIterator的实现

// AppendOnlyMap.scala
def destructiveSortedIterator(keyComparator: Comparator[K]): Iterator[(K, V)] = {destroyed = truevar keyIndex, newIndex = 0// 下面这个循环将哈希表里面散乱的KV对压缩到最前面while (keyIndex < capacity) {if (data(2 * keyIndex) != null) {data(2 * newIndex) = data(2 * keyIndex)data(2 * newIndex + 1) = data(2 * keyIndex + 1)newIndex += 1}keyIndex += 1}assert(curSize == newIndex + (if (haveNullValue) 1 else 0))new Sorter(new KVArraySortDataFormat[K, AnyRef]).sort(data, 0, newIndex, keyComparator)// 这下面和前面实现大差不差,就省略了new Iterator[(K, V)] {...}
}

下面我们来看看实现的next()接口函数,它是外部排序中的一个典型的归并过程。我们需要注意的是minBuffer是一个StreamBuffer,维护一个hash(K), VArrayBuffer,类似H1 V1 H1 V2 H2 V3这样的序列,而不是我们想的(K, V)流。因此其中是可能有哈希碰撞的。我们从mergeHeapdequeue出来的StreamBuffer是当前hash(K)最小的所有K的集合。

override def next(): (K, C) = {if (mergeHeap.isEmpty) {// 如果堆是空的,就再见了throw new NoSuchElementException}// Select a key from the StreamBuffer that holds the lowest key hash// mergeHeap选择所有StreamBuffer中最小hash的,作为minBufferval minBuffer = mergeHeap.dequeue()// minPairs是一个ArrayBuffer[T],表示这个StreamBuffer维护的所有KV对val minPairs = minBuffer.pairsval minHash = minBuffer.minKeyHash// 从一个ArrayBuffer[T]中移出Index为0的项目val minPair = removeFromBuffer(minPairs, 0)// 得到非哈希的 (minKey, minCombiner)val minKey = minPair._1var minCombiner = minPair._2assert(hashKey(minPair) == minHash)// For all other streams that may have this key (i.e. have the same minimum key hash),// merge in the corresponding value (if any) from that streamval mergedBuffers = ArrayBuffer[StreamBuffer](minBuffer "StreamBuffer")while (mergeHeap.nonEmpty && mergeHeap.head.minKeyHash == minHash) {val newBuffer = mergeHeap.dequeue()// 如果newBuffer的key和minKey相等的话(考虑哈希碰撞),就合并minCombiner = mergeIfKeyExists(minKey, minCombiner, newBuffer)mergedBuffers += newBuffer}// Repopulate each visited stream buffer and add it back to the queue if it is non-emptymergedBuffers.foreach { buffer =>if (buffer.isEmpty) {readNextHashCode(buffer.iterator, buffer.pairs)}if (!buffer.isEmpty) {mergeHeap.enqueue(buffer)}}(minKey, minCombiner)
}

SizeTracker

首先在每次集合更新之后,会调用afterUpdate,当到达采样的 interval 之后,会takeSample

// SizeTracker.scala
protected def afterUpdate(): Unit = {numUpdates += 1if (nextSampleNum == numUpdates) {takeSample()}
}

takeSample函数中第一句话就涉及多个对象,一个一个来看。

// SizeTracker.scala
private def takeSample(): Unit = {samples.enqueue(Sample(SizeEstimator.estimate(this), numUpdates))...

SizeEstimator.estimate的实现类似去做一个 state 队列上的 BFS。

private def estimate(obj: AnyRef, visited: IdentityHashMap[AnyRef, AnyRef]): Long = {val state = new SearchState(visited)state.enqueue(obj)while (!state.isFinished) {visitSingleObject(state.dequeue(), state)}state.size
}

visitSingleObject来具体做这个 BFS,会特殊处理 Array 类型。我们不处理反射,因为反射包里面会引用到很多全局反射对象,这个对象又会应用到很多全局的大对象。同理,我们不处理 ClassLoader,因为它里面会应用到整个 REPL。反正 ClassLoaders 和 Classes 是所有对象共享的。

private def visitSingleObject(obj: AnyRef, state: SearchState): Unit = {val cls = obj.getClassif (cls.isArray) {visitArray(obj, cls, state)} else if (cls.getName.startsWith("scala.reflect")) {} else if (obj.isInstanceOf[ClassLoader] || obj.isInstanceOf[Class[_]]) {// Hadoop JobConfs created in the interpreter have a ClassLoader.} else {obj match {case s: KnownSizeEstimation =>state.size += s.estimatedSizecase _ =>val classInfo = getClassInfo(cls)state.size += alignSize(classInfo.shellSize)for (field <- classInfo.pointerFields) {state.enqueue(field.get(obj))}}}
}

然后我们创建一个Sample,并且放到队列samples

private object SizeTracker {case class Sample(size: Long, numUpdates: Long)
}

下面的主要工作就是计算一个bytesPerUpdate

...// Only use the last two samples to extrapolate// 如果sample太多了,就删除掉一些if (samples.size > 2) {samples.dequeue()}val bytesDelta = samples.toList.reverse match {case latest :: previous :: tail =>(latest.size - previous.size).toDouble / (latest.numUpdates - previous.numUpdates)// If fewer than 2 samples, assume no changecase _ => 0}bytesPerUpdate = math.max(0, bytesDelta)nextSampleNum = math.ceil(numUpdates * SAMPLE_GROWTH_RATE).toLong
}

我们统计到上次估算之后经历的 update 数量,并乘以bytesPerUpdate,即可得到总大小

// SizeTracker.scala
def estimateSize(): Long = {assert(samples.nonEmpty)val extrapolatedDelta = bytesPerUpdate * (numUpdates - samples.last.numUpdates)(samples.last.size + extrapolatedDelta).toLong
}

Shuffle Write 端源码分析

Shuffle Write 端的实现主要依赖ShuffleManager中的ShuffleWriter对象,目前使用的ShuffleManagerSortShuffleManager,因此只讨论它。它是一个抽象类,主要有SortShuffleWriterUnsafeShuffleWriterBypassMergeSortShuffleWriter等实现。

SortShuffleWriter

private[spark] abstract class ShuffleWriter[K, V] {/** Write a sequence of records to this task's output */@throws[IOException]def write(records: Iterator[Product2[K, V]]): Unit/** Close this writer, passing along whether the map completed */def stop(success: Boolean): Option[MapStatus]
}

SortShuffleWriter的实现可以说很简单了,就是将records放到一个ExternalSorter里面,然后创建一个ShuffleMapOutputWritershuffleExecutorComponents实际上是一个LocalDiskShuffleExecutorComponentsShuffleMapOutputWriter是一个 Java 接口,实际上被创建的是LocalDiskShuffleMapOutputWriter

// SortShuffleWriter
override def write(records: Iterator[Product2[K, V]]): Unit = {sorter = if (dep.mapSideCombine) {new ExternalSorter[K, V, C](context, dep.aggregator, Some(dep.partitioner), dep.keyOrdering, dep.serializer)} else {// 如果不需要进行mapSideCombine,那么我们传入空的aggregator和ordering,// 我们在map端不负责对key进行排序,统统留给reduce端吧new ExternalSorter[K, V, V](context, aggregator = None, Some(dep.partitioner), ordering = None, dep.serializer)}sorter.insertAll(records)// Don't bother including the time to open the merged output file in the shuffle write time,// because it just opens a single file, so is typically too fast to measure accurately// (see SPARK-3570).val mapOutputWriter = shuffleExecutorComponents.createMapOutputWriter(dep.shuffleId, mapId, dep.partitioner.numPartitions)...

紧接着,调用ExternalSorter.writePartitionedMapOutput将自己维护的map或者buffer(根据是否有 Map Side Aggregation)写到mapOutputWriter提供的partitionWriter里面。其过程用到了一个叫`destructiveSortedWritablePartitionedIterator`的迭代器[8],相比destructiveSortedIterator,它是多了 Writable 和 Partitioned 两个词。前者的意思是我可以写到文件,后者的意思是我先按照 partitionId 排序,然后在按照给定的 Comparator 排序。

接着就是commitAllPartitions,这个函数调用writeIndexFileAndCommit

//...sorter.writePartitionedMapOutput(dep.shuffleId, mapId, mapOutputWriter)val partitionLengths = mapOutputWriter.commitAllPartitions()

MapStatus被用来保存 Shuffle Write 操作的 metadata。

...mapStatus = MapStatus(blockManager.shuffleServerId, partitionLengths, mapId)
}// LocalDiskShuffleMapOutputWriter.java
@Override
public long[] commitAllPartitions() throws IOException {...cleanUp();File resolvedTmp = outputTempFile != null && outputTempFile.isFile() ? outputTempFile : null;blockResolver.writeIndexFileAndCommit(shuffleId, mapId, partitionLengths, resolvedTmp);return partitionLengths;
}

writeIndexFileAndCommit负责为传入的文件dataTmp创建一个索引文件,并原子地提交。注意到,到当前版本,每一个执行单元只会生成一份数据文件和一份索引。

// IndexShuffleBlockResolver.java
def writeIndexFileAndCommit(shuffleId: Int, mapId: Long, lengths: Array[Long], dataTmp: File): Unit

根据writeIndexFileAndCommit的注释,getBlockData会来读它写的块,这个getBlockData同样位于我们先前介绍过的IndexShuffleBlockResolver类中。

Reference

  • https://docs.scala-lang.org/zh-cn/tour/implicit-parameters.html
  • https://zhuanlan.zhihu.com/p/354409+
  • https://fangjian0423.github.io/20+/+/20/scala-implicit/
  • https://www.cnblogs.com/xia520pi/p/8745923.html
  • https://spark.apache.org/docs/latest/api/scala/index.html
  • https://blog.csdn.net/bluishglc/article/details/52946575
  • https://stackoverflow.com/questions/4386+7/what-is-the-formal-difference-in-scala-between-braces-and-parentheses-and-when
  • https://intellipaat.com/blog/dataframes-rdds-apache-spark/
  • https://indatalabs.com/blog/convert-spark-rdd-to-dataframe-dataset
  • https://tech.meituan.com/20+/04/29/spark-tuning-basic.html
  • https://endymecy.gitbooks.io/spark-programming-guide-zh-cn/content/programming-guide/rdds/rdd-persistences.html
  • https://forums.databricks.com/questions/+792/no-reducebekey-api-in-dataset.html
  • https://stackoverflow.com/questions/38383207/rolling-your-own-reducebykey-in-spark-dataset
  • https://litaotao.github.io/boost-spark-application-performance
  • https://www.iteblog.com/archives/+72.html
  • https://vimsky.com/article/2708.html
  • https://scastie.scala-lang.org/
  • https://www.jianshu.com/p/5c230+fa360
  • https://www.cnblogs.com/nowgood/p/ScalaImplicitConversion.html
  • https://stackoverflow.com/questions/+8+352/why-we-need-implicit-parameters-in-scala
  • https://stackoverflow.com/questions/3+08083/difference-between-dataframe-dataset-and-rdd-in-spark/39033308
  • https://stackoverflow.com/questions/3+06009/spark-saveastextfile-last-partition-almost-never-finishes
  • https://stackoverflow.com/questions/43364432/spark-difference-between-reducebykey-vs-groupbykey-vs-aggregatebykey-vs-combineb
  • https://blog.csdn.net/dabokele/article/details/52802+0
  • https://blog.csdn.net/zrc+902+article/details/527+593
  • https://stackoverflow.com/questions/3094++/spark-nullpointerexception-when-rdd-isnt-collected-before-map
  • https://twitter.github.io/scala_school/zh_cn/advanced-types.html
  • https://colobu.com/20+/05/+/Variance-lower-bounds-upper-bounds-in-Scala/
  • https://www.cnblogs.com/fillPv/p/5392+6.html
  • https://issues.scala-lang.org/browse/SI-7005
  • https://stackoverflow.com/questions/32900862/map-can-not-be-serializable-in-scala
  • http://www.calvinneo.com/2019/08/06/scala-lang/
  • http://www.calvinneo.com/2019/05/16/pandas/
  • 深入理解 SPARK:核心思想与源码分析
  • http://www.calvinneo.com/2019/08/06/spark-sql/
  • https://zhuanlan.zhihu.com/p/67068559
  • http://www.jasongj.com/spark/rbo/
  • https://www.kancloud.cn/kancloud/spark-internals/45243
  • https://www.jianshu.com/p/4c5c2e535da5
  • http://jerryshao.me/20+/0+04/spark-shuffle-detail-investigation/
  • https://github.com/hustnn/TungstenSecret
  • https://jaceklaskowski.gitbooks.io/mastering-apache-spark/spark-shuffle-UnsafeShuffleWriter.html
  • https://blog.k2datascience.com/batch-processing-apache-spark-a670+008+7
  • https://stackoverflow.com/questions/45553492/spark-task-memory-allocation/45570944
  • https://0x0fff.com/spark-architecture-shuffle/
  • https://0x0fff.com/spark-memory-management/
  • https://www.slideshare.net/databricks/memory-management-in-apache-spark
  • https://www.linuxprobe.com/wp-content/uploads/20+/04/unified-memory-management-spark-+000.pdf

备注

腾讯互娱数据挖掘团队招聘后台开发实习生/正职,工作地点为深圳,有意者请发送简历到 jiaqiangwang@tencent.com。 任职要求:

  • 计算机相关专业本科及以上学历,有扎实的计算机理论基础;
  • 熟悉 Python, C++, golang 等至少一种常用编程语言,有良好的代码习惯和丰富的实践经验;
  • 有热情了解和尝试新技术、架构,较强的学习能力和逻辑思维能力;
  • 较强的沟通能力,能够逻辑清晰地进行自我表达,团队合作意识强,与人沟通积极主动;
  • 加分项: 对机器学习算法有较深的了解; 有分布式计算底层性能优化经验; 对机器学习有基本的了解,了解常见机器学习算法基本原理; 有基于分布式计算框架开发经验和大规模数据处理经验;

作者: calvinrzluo,腾讯 IEG 后台开发工程师

参考资料

[1]

PairRDDFunctions: http://spark.apache.org/docs/latest/api/scala/index.html#org.apache.spark.rdd.PairRDDFunctions

[2]

与Catalyst Optimizer的优化: https://stackoverflow.com/questions/38383207/rolling-your-own-reducebykey-in-spark-dataset

[3]

执行单位: https://www.jianshu.com/p/4c5c2e535da5

[4]

内存还是要能承载一个KV的: http://spark.apache.org/docs/latest/api/scala/index.html#org.apache.spark.rdd.PairRDDFunctions

[5]

Tungsten: https://community.cloudera.com/t5/Community-Articles/What-is-Tungsten-for-Apache-Spark/ta-p/248445

[6]

不连续的: https://www.ibm.com/developerworks/cn/analytics/library/ba-cn-apache-spark-memory-management/index.html

[7]

ExternalSorter.scala: https://github.com/apache/spark/blob/master/core/src/main/scala/org/apache/spark/util/collection/ExternalSorter.scala

[8]

destructiveSortedWritablePartitionedIterator的迭代器: https://github.com/apache/spark/blob/master/core/src/main/scala/org/apache/spark/util/collection/WritablePartitionedPairCollection.scala

作者: calvinrzluo,腾讯 IEG 后台开发工程师

sparkcore分区_Spark学习:Spark源码和调优简介 Spark Core (二)相关推荐

  1. Spark源码和调优简介 Spark Core

    作者:calvinrzluo,腾讯 IEG 后台开发工程师 本文基于 Spark 2.4.4 版本的源码,试图分析其 Core 模块的部分实现原理,其中如有错误,请指正.为了简化论述,将部分细节放到了 ...

  2. spark 源码分析之十八 -- Spark存储体系剖析

    本篇文章主要剖析BlockManager相关的类以及总结Spark底层存储体系. 总述 先看 BlockManager相关类之间的关系如下: 我们从NettyRpcEnv 开始,做一下简单说明. Ne ...

  3. Spark 中 JVM 内存使用及配置详情、spark报错与调优、Spark内存溢出OOM异常

    一般在我们开发spark程序的时候,从代码开发到上线以及后期的维护中,在整个过程中都需要涉及到调优的问题,即一开始需要考虑如何把代码写的更简洁高效调优(即代码优化),待开发测试完成后,提交任务时综合考 ...

  4. 刷完这套微服务+多线程+源码+分布式+调优试题,年薪50w还会是问题吗

    文章目录 前言 正文 一.Java基础(JVM.设计模式.容器.反射.对象拷贝.Java Web.异常.网络) 二.Java多线程与并发编程(多线程.JMM.HashMap) 三.开源框架(Sprin ...

  5. spark 源码分析之十九 -- DAG的生成和Stage的划分

    上篇文章 spark 源码分析之十八 -- Spark存储体系剖析 重点剖析了 Spark的存储体系.从本篇文章开始,剖析Spark作业的调度和计算体系. 在说DAG之前,先简单说一下RDD. 对RD ...

  6. Spark源码分析之七:Task运行(一)

    在Task调度相关的两篇文章<Spark源码分析之五:Task调度(一)>与<Spark源码分析之六:Task调度(二)>中,我们大致了解了Task调度相关的主要逻辑,并且在T ...

  7. Spark源码打包编译的过程

    前言 上篇文章介绍了下 安装sbt环境 启动scala项目 安装SBT环境运行Scala项目 为什么要弄这个 因为我本来是想对spark源码编译部署 spark是用scala语言编译的 spark源码 ...

  8. Windows + IDEA + SBT 打造Spark源码阅读环境

    Spark源码阅读环境的准备 Spark源码是有Scala语言写成的,目前,IDEA对Scala的支持要比eclipse要好,大多数人会选在在IDEA上完成Spark平台应用的开发.因此,Spark源 ...

  9. Spark源码解读之Shuffle计算引擎剖析

    Shuffle是Spark计算引擎的关键所在,是必须经历的一个阶段,在前面的文章中,我们剖析了Shuffle的原理以及Map阶段结果的输出与Reduce阶段结果如何读取.该篇文章是对前面两篇文章 [S ...

最新文章

  1. 扩增子图表解读7三元图:三组差异数量和关系
  2. C/C++从源代码到生成可执行程序的过程详解!
  3. 3w并发mysql架构_(DBA之路【一】)mysql 基本架构
  4. GitHub中watch、star、fork的作用
  5. C语言实用算法系列之DOS传参“加减乘除计算器”
  6. Nature | 我的研究对后人毫无用途:21%的学术论文自发布后从未被引用
  7. 网络爬虫中的模拟登陆获取数据(实例教学1)
  8. 虚拟环境使用自动化软件能够节省成本吗?
  9. oracle——监听(二、sqlplus连接数据库)
  10. C# Winform 实现屏蔽键盘的win和alt+F4的实现代码
  11. Spice Windows Client 利用 USBDk 实现USB重定向
  12. 车辆路径跟踪算法及数学模型
  13. 【阿朱归类】2015 新兴互联网公司 TOP 300
  14. ?username=王二麻子age=18转换成对象?
  15. 家长会计算机教师致辞,家长会教师致辞最新
  16. 鹏业安装算量软件识别电气系统图(表格式)
  17. 开发APP的java工具_程序猿必备的java的app开发工具有哪些
  18. Could not open the editor: URLDecoder: Illegal hex characters in escape (%) pattern - For input stri
  19. 蓝牙耳机哪款打游戏最好用?值得入手的四款低延迟游戏蓝牙耳机
  20. 加密解密及其javascript实现

热门文章

  1. Alpha冲刺 - (5/10)
  2. iOS开发UI篇—多控制器和导航控制器简单介绍
  3. Java 时间和日期类型的 Hibernate 映射
  4. .NET Core 常用加密和Hash工具NETCore.Encrypt
  5. Tcl学习之--列表|字典
  6. 懒加载 字典转模型 自定义cell
  7. Repeater分页代码
  8. CreateFileMapping
  9. Squid的refresh_pattern配置
  10. JavaScript 读写文件