导语
  MapReduce作为Hadoop核心编程模型,在Hadoop中,数据处理的核心就是MapReduce程序设计模型。下面就来分享一下MapReduce都有那些值得我们注意的事情。

文章目录

  • MapReduce编程模型
  • MapReduce执行流程
  • MapReduce数据本地化(Data-Local)
  • MapReduce的工作原理

MapReduce编程模型

  Map 和Reduce 的概念是从函数式编程中借鉴而来的,而函数式编程也是现在比较流行的一个话题。整个的MapReduce计算过程其实是被分为Map阶段和Reduce阶段的。也就是映射与缩减两个独立的阶段过程。在Map中进行数据的读取与预处理,然后将预处理结果发送到Reduce中进行有效的合并。

创建Map的代码

  在使用MapReduce的过程中,第一个测试示例就是统计一篇文章中每个单词出现的次数。下面就来实现以下

import sys
word_list =[]
for line in sys.stdin:word_list = line.strip().split('');if len(word_list)<=0:continue;for word in word_list:w = word.strip();if len(w)<=0:continue;print "\t".join([w,"1"])

  上面这段代码主要的工作就是从文章中,对单词进行以空格的方式分割。

  word_list = line.strip().split(’ '),这个代码将当前读取的一整行数据按照空格进行分割,然后将分割后的结果存入word_list数组中,通过遍历,获取到每个单词,然后将对应次数加一。

创建Reduce代码

import syscur_word = None
sum_of_word = 0for line in sys.stdin:ss = line.strip().split('\t')if len(ss)!=2:continueword = ss[0].strip()count = ss[1].strip()if cur_word = None:cur_word = wordif cur_word != word:print '\t'.join([cur_word,str(sum_of_word)])sum_of_word = 0cur_word = wordsum_of_word += int(count)
print '\t'.join([cur_word,str(sum_of_word)])
sum_of_word = 0

  上面这段代码对Map阶段的数组进行汇总处理,从Map到Reduce的过程中,存在一个缓存的分组阶段,保证同一个Word记录会连续传入到reduce中,所以在Reduce阶段,需要的是对连续的相同Word进行累加。如图所示

MapReduce执行流程

  上面介绍的是MapReduce计算框架的一般的执行流程。如下图所示

1、输入和拆分

  这个过程不属于Map和Reduce的主要过程,他属于整个的计算框架中最消耗时间的一部分操作,这个过程是为Map准备数据。

分片操作

  split只要将源文件的内容分片形成一系列的InputSplit,每个InputSplit中存储着对应分片的数据信息(例如一些文件快信息、起始位置、数据长度、所在节点列表等等)它并不是将源文件分割成多个小文件,每个InputSplit都是由一个Mapper进行后续处理的。

  splitSize是参数是通过如下的三个值来确定的

  • minSize:splitSize的最小值,是由mapred-site.xml配置文件中的mapred.min.split.size参数确定。
  • maxSize:splitSize的最大值,是由mapred-size.xml配置文件中mapreduce.jobtracker.split.metainfo.maxsize参数确定。
  • blockSize:HDFS中文件存储块大小,是由hafs-site.xml配置文件中dfs.block.size参数确定。

  splitSize的确定规则:splitSize=max{minSize,min{maxSize,blockSize}}

数据格式化操作

  将划分好的InputSplit格式化层对应的键值对,其中key是偏移量,value是每一行的内容。

  需要注意的是,在Map执行任务的过程中,数据格式化的操作会一直执行,每生成一个键值对就会将其传入到map中,进行处理,所以Map和数据格式化操作并不会存在前后时间差,而是同时进行的操作。

2、Map映射

  这个操作是在Hadoop并行发挥的操作,根据用户指定的Map过程,MapReduce尝试在数据所在的机器上执行对应的Map程序,在HDFS中,文件数据被复制成了多份,这个在之前的分享中介绍过,所以计算将会选择拥有数据的最空闲的节点进行操作。

  在这个过程中,Map内部的过程可以由用户自定义。

3、Shuffle派发

  Shuffle过程是指Mapper产生的直接输出结果,经过一系列的处理,成为最终的Reducer直接输入数据为止的整个过程。这是MapReduce的核心处理过程,整个的过程分为两个阶段。

Mapper端的Shuffle:由Mapper产生的结果并不会直接写入到磁盘中,而是有限存储在内存中,当内存中的数据量达到一定的阈值之后,一次性的写入到本地磁盘中,并且同时进行sort、combine、partition等等的操作。sort是将Mapper中产生的数据按照key值进行排序;combine是将key值相同的记录进行合并;partition是把数据均衡的分配给Reducer。

Reducer端的Shuffle:由Mapper和Reduce在不同的节点上运行,所以Reducer需要从多个节点上下载Mapper的结果数据,并且对这些数据进行处理,然后才能被Reducer处理。

4、Reduce缩减
  Reducer接收形式的数据流,形成的输出,具体的过程可以由用户自定义,最终结果直接写入hdfs。每个Reduce进程会对应一个输出的文件,名称是以part-开头。

MapReduce数据本地化(Data-Local)

  HDFS和MapReduce是Hadoop的核心设计,对于HDFS,是存储的基础,在数据层面上提供海量数据存储的支持,而MapReduce,在数据的上层,通过编写MapReduce程序对海量数据进行计算处理。

  在之前的分享中,HDFS中,NameNode是文件系统的名字节点进程,DataNode是文件系统的数据节点进程。

  MapReduce计算框架负责计算任务调度JobTracker对应HDFS的NameNode。只不过一个是负责计算任务的调度,一个是负责存储任务的调度。

  考虑到“本地化的原则”,一般将NameNode和JobTracker部署到同一台机器上,各个DataNode和TaskNode也同样部署到同一个机器上。

  这样做的目的是将Map的任务分配给含有Map处理的数据块的TaskTracker上,同时也是将程序的Jar包复制到了含有TaskTracker上执行,这叫做“计算移动,数据不移动”。分配Reduce任务的时候并不考虑数据本地化。

MapReduce的工作原理

  通过Client、JobTrask和TaskTracker的角度来分析MapReduce的工作原理。

  首先客户端启动一个Job,向JobTracker请求一个JobID。将支持运行的所有的资源文件复制到HDFS上,包括MapReduce程序打包的JAR文件、配置文件以及支持客户算计算的的输入划分的信息。这些文件都是存放到在JobTracker专门创建的文件夹中,这个文件夹的名称就是JobID ,JAR文件默认有10个副本,这个是由mapred.submit.replication 属性开工至,输入划分的信息告诉了JobTracker应该为这个作业启动多少个Map任务等信息。
  JobTracker接收到作业后,将Job放入到一个队列中,等待Job调度器对于Job进行调用。当调度器根据自己的调度算法调度到对应的Job的时候,则会根据输入划分信息为每个划分创建一个Map任务,并且将Map人任务分配给TaskTracker执行。对于Map和Reduce任务,TaskTracker,根据主机核的数量和内存的大小有固定数量的Map和Reduce。

  这里需要注意的就是Map任务不是随随便便就分配给了某个TaskTracker,这就是涉及到了上面说的本地化数据。

  TaskTracker每隔一段时间就会给JobTracker发送心跳,告诉JobTracker它依然在运行,同时心跳中还携带了很多的信息。例如当前Map任务完成的进度等信息。当JobTracker收到作业的最后一个任务完成信息的时候 ,就会把作业设置成成功。当JobClient查询状态的时候,它就会知道任务已经完成,便将消息发送给用户。

大数据-MapReduce计算框架相关推荐

  1. 【大数据实时计算框架】Storm框架

    一.大数据实时计算框架 1.什么是实时计算?流式计算? (一)什么是Storm? Storm为分布式实时计算提供了一组通用原语,可被用于"流处理"之中,实时处理消息并更新数据库.这 ...

  2. 大数据实时计算框架简介

    一.实时计算,流式计算? 实时计算 == 流式计算 自来水厂就是一个典型的实时计算系统: 自来水厂可以简单的理解为由一个水泵(采集水源),多个蓄水池(处理水源:沉淀,过滤,消毒等步骤),管理员构成. ...

  3. ma-云计算 大数据 mapreduce概念和关系

    0 云计算: 什么是云计算?针对这个问题,恐怕十个专家会给出十一个互不相同的答案,而事实上也有无数的文章从各个角度试图给出一个简单而确切的定义. 在最肤浅的级别上来说,原来基于web 2.0技术开发的 ...

  4. 大数据实时计算工程师/Hadoop工程师/数据分析师职业路线图

    大数据实时计算工程师/Hadoop工程师/数据分析师职业路线图 http://edu.51cto.com/roadmap/view/id-29.html http://my.oschina.net/i ...

  5. 给 Java 开发者的 10 个大数据工具和框架

    给 Java 开发者的 10 个大数据工具和框架 当今IT开发人员面对的最大挑战就是复杂性,硬件越来越复杂,OS越来越复杂,编程语言和API越来越复杂,我们构建的应用也越来越复杂.根据外媒的一项调查报 ...

  6. 最适合Java开发者的大数据工具和框架

    http://www.xsh-gz.com/javatrain/20170104/2222.html 转自 最适合Java开发者的大数据工具和框架 发布时间: 2017-01-04 17:12:58 ...

  7. 大宝大话大数据(一) ——大数据的整体框架

    学习和使用大数据工具已经一年多了,经历了看书自学,实习实践,理解原理这几个重要阶段的铺垫后,自我感觉算是对大数据开发初步入门了.也想借此机会对所学内容做一个总结和归纳.方便自己查阅的同时,也希望帮助到 ...

  8. Hadoop详解(六):MapReduce计算框架详解

    1. Hadoop MapReduce简介 Hadoop MapReduce是一个使用简便的软件框架,是Google云计算模型MapReduce的Java开源实现,基于它写出来的应用程序能够运行在由上 ...

  9. 大数据 MapReduce使用

    前言 简单讲讲我怎么在IDEA进行开发的. 大数据 基础概念 大数据 Centos基础 大数据 Shell基础 大数据 ZooKeeper 大数据 Hadoop介绍.配置与使用 大数据 Hadoop之 ...

最新文章

  1. Buffer的工作方式
  2. 关于一道简单的Java 基础面试题的剖析: short s1=1;s1 = s1 +1会报错吗?
  3. 计算机网络第一章:计算机网络概述
  4. 索尔维会议记录软件测试,索尔维会议
  5. 【突破移动端性能极限】
  6. Mysql对应的dul_MySQL InnoDB 数据字典介绍
  7. python循环绘制六角星_《Python游戏趣味编程》 第3章 美丽的圆圈画
  8. Jupyter.net:使用Jupyter进行交互式计算的Windows应用程序
  9. js 正则表达式判断价格
  10. C++实现LRU(Least-Recently Used)缓存算法
  11. 【软件相关】LabView使用总结
  12. Neokylin-Server离线环境、跨主机、使用Docker部署PXC集群
  13. laravel 多语言切换
  14. Activiti 介绍
  15. BIOS设置u盘启动找不到u盘选项怎么办?
  16. 网络安全工程师入门,防火墙基本概述,防火墙调试入门
  17. 51单片机 Proteus仿真 电烙铁温度保护系统 DS18B20 温度报警系统
  18. VL-BEiT:Generative Vision-Language Pretraining(生成Vision-Language预训练)
  19. Flowable 流程实例的挂起(暂停)与激活
  20. 梅斯大学的计算机专业排名,法国大学排名TOP50

热门文章

  1. idea如何全局查找和替换
  2. 构建基本的嵌入式Linux根文件系统
  3. 自己封装的Windows7 64位旗舰版,微软官网上下载的Windows7原版镜像制作,绝对纯净版...
  4. ORACLE获取某个时间段之间的月份列表和日期列表
  5. 自动完成下拉框 Select2 关键字搜索的实例(本地数据与异步获取)
  6. 设计模式学习笔记——命令模式
  7. 服务器托管常见问题纠纷与解决方法
  8. HOWTO: Create and submit your first Linux kernel patch using GIT
  9. 建议重写equals方法时也一并重写hashCode方法
  10. 《MapReduce 2.0源码分析与编程实战》一第2章 入门