MapReduce概念

Mapreduce是一个分布式运算程序的编程框架,是用户开发“基于hadoop的数据分析应用”的核心框架;
        Mapreduce核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个hadoop集群上。

1.1 为什么要MapReduce

  1. 海量数据在单机上处理因为硬件资源限制,无法胜任
  2. 而一旦将单机版程序扩展到集群来分布式运行,将极大增加程序的复杂度和开发难度
  3. 引入mapreduce框架后,开发人员可以将绝大部分工作集中在业务逻辑的开发上,而将分布式计算中的复杂性交由框架来处理。
  4. mapreduce分布式方案考虑的问题
    (1)运算逻辑要不要先分后合?
    (2)程序如何分配运算任务(切片)?
    (3)两阶段的程序如何启动?如何协调?
    (4)整个程序运行过程中的监控?容错?重试?
            分布式方案需要考虑很多问题,但是我们可以将分布式程序中的公共功能封装成框架,让开发人员将精力集中于业务逻辑上。而mapreduce就是这样一个分布式程序的通用框架。

1.2 MapReduce核心思想

1.3 MapReduce进程

一个完整的mapreduce程序在分布式运行时有三类实例进程:
(1)MrAppMaster:负责整个程序的过程调度及状态协调
(2)MapTask:负责map阶段的整个数据处理流程
(3)ReduceTask:负责reduce阶段的整个数据处理流程

1.4 MapReduce编程规范(八股文)

用户编写的程序分成三个部分:Mapper,Reducer,Driver(提交运行mr程序的客户端)

  • 1)Mapper阶段

    (1)用户自定义的Mapper要继承自己的父类
    (2)Mapper的输入数据是KV对的形式(KV的类型可自定义)
    (3)Mapper中的业务逻辑写在map()方法中
    (4)Mapper的输出数据是KV对的形式(KV的类型可自定义)
    (5)map()方法(maptask进程)对每一个<K,V>调用一次

  • 2)Reducer阶段

    (1)用户自定义的Reducer要继承自己的父类
    (2)Reducer的输入数据类型对应Mapper的输出数据类型,也是KV
    (3)Reducer的业务逻辑写在reduce()方法中
    (4)Reducetask进程对每一组相同k的<k,v>组调用一次reduce()方法

  • 3)Driver阶段
    (1)整个程序需要一个Drvier来进行提交,提交的是一个描述了各种必要信息的job对象

  • 案例实操

    需求统计一堆文件中单词出现的个数(WordCount)。
    准备工作:
    (1)开启集群
    (2)准备数据
    步骤一:
    创建WordCountMapper类,继承Mapper类,实现map()方法。
    参数说明:
    (1)第一个:输入数据的行号
    (2)第二个:输入数据每一行的信息类型
    (3)第三个:输出的key类型
    (4)第四个:输出的value类型

     import org.apache.hadoop.io.IntWritable;import org.apache.hadoop.io.LongWritable;import org.apache.hadoop.io.Text;import java.io.*;import org.apache.hadoop.mapreduce.Mapper;/*** KEYIN 输入数据key 行数 VALUEIN 每一行的数据 KEYOUT输出数据 VALUEOUT输出数据的数量* * @author lenovo* */public class WordCountMapper extendsMapper<LongWritable, Text, Text, IntWritable> {protected void map(LongWritable key, Text value, Context context)throws IOException, InterruptedException {//获取第一行数据String line = value.toString();//获取每一个单词String[] words = line.split(" ");for (String word : words) {//输出单词context.write(new Text(word), new IntWritable(1));}}}
    

步骤二:
创建WordCountReduce类,继承Reduce类,实现reduce()方法。
参数说明:
(1)第一个:输入数据的key
(2)第二个:输入数据信息类型(和mapper中的输出类型一致)
(3)第三个:输出的key类型
(4)第四个:输出的value类型

import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;public class WordCountReduce extends Reducer<Text,IntWritable, Text, IntWritable>{protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException ,InterruptedException {//统计所有单词个数int count = 0;for (IntWritable value : values) {count += value.get();}//输出所有单词个数context.write(key, new IntWritable(count));}
}

步骤三:
创建WordCountDriver类。

 import java.io.IOException;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io.IntWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Job;import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;public class WordCountDriver {/*** @param args* @throws IOException * @throws IllegalArgumentException * @throws InterruptedException * @throws ClassNotFoundException */public static void main(String[] args) throws IllegalArgumentException, IOException, ClassNotFoundException, InterruptedException {//1.获取job对象Configuration conf = new Configuration();Job job = Job.getInstance(conf);//2。设置加载jar包位置job.setJarByClass(WordCountDriver.class);//3。设置map和reduce的classjob.setMapperClass(WordCountMapper.class);job.setReducerClass(WordCountReduce.class);//4.设置输出mapper的数据类型job.setMapOutputKeyClass(Text.class);job.setMapOutputValueClass(IntWritable.class);//5.设置最终数据输出的类型job.setOutputKeyClass(Text.class);job.setOutputValueClass(IntWritable.class);//6.设置输入数据和输出数据的路径FileInputFormat.setInputPaths(job, new Path(args[0]));FileOutputFormat.setOutputPath(job, new Path(args[1]));//7.提交//job.submit();boolean result = job.waitForCompletion(true);System.exit(result ? 0 : 1);}
}

步骤四:将程序打成jar包,然后拷贝到hadoop集群中。
步骤四:执行wordcount程序
[root@hadoop hadoop-2.7.2]# hadoop jar wc.jar bh.shy.wordcount.WordcountDriver /user/shy/input /user/shy/output1

1.5 MapReduce程序运行流程分析


(1)在MapReduce程序读取文件的输入目录上存放相应的文件。
(2)客户端程序在submit()方法执行前,获取待处理的数据信息,然后根据集群中参数的配置形成一个任务分配规划。
(3)客户端提交job.split、jar包、job.xml等文件给yarn,yarn中的resourcemanager启动MRAppMaster。
(4)MRAppMaster启动后根据本次job的描述信息,计算出需要的maptask实例数量,然后向集群申请机器启动相应数量的maptask进程。
(5)maptask利用客户指定的inputformat来读取数据,形成输入KV对。
(6)maptask将输入KV对传递给客户定义的map()方法,做逻辑运算
(7)map()运算完毕后将KV对收集到maptask缓存。
(8)maptask缓存中的KV对按照K分区排序后不断写到磁盘文件
(9)MRAppMaster监控到所有maptask进程任务完成之后,会根据客户指定的参数启动相应数量的reducetask进程,并告知reducetask进程要处理的数据分区。
(10)Reducetask进程启动之后,根据MRAppMaster告知的待处理数据所在位置,从若干台maptask运行所在机器上获取到若干个maptask输出结果文件,并在本地进行重新归并排序,然后按照相同key的KV为一个组,调用客户定义的reduce()方法进行逻辑运算。
(11)Reducetask运算完毕后,调用客户指定的outputformat将结果数据输出到外部存储。

大数据——MapReduce基础(MapReduce概念)相关推荐

  1. 大数据入门 - 基础概念

    文章目录 1. 发展历史 2. 分布式系统 可靠性 可扩展性 可维护性 4. 单机引擎的问题 事务 写入和存储 数据的序列化 3. GFS(Google File System) master 的快速 ...

  2. AI时代:聊聊大数据中的MapReduce

    各位朋友,大家好,我是Payne,欢迎大家关注我的博客.最近读一本并行计算相关的书籍,在这本书中作者提到了MapReduce.相信熟悉大数据领域的朋友,一定都知道MapReduce是Hadoop框架中 ...

  3. 大数据技术之MapReduce

    大数据技术之MapReduce 目录 大数据技术之MapReduce 第 1 章 MapReduce 概述 1.1 MapReduce 定义 1.2 MapReduce 优缺点 1.2.1 优点 1. ...

  4. 大数据知识面试题-MapReduce和YARN(2022版)

    序列号 内容 链接 1 大数据知识面试题-通用(2022版) https://blog.csdn.net/qq_43061290/article/details/124819089 2 大数据知识面试 ...

  5. 谷歌三篇大数据论文之mapreduce读后感

    ** 谷歌三篇大数据论文之mapreduce读后感** 天气预报.城市外来人口统计等很多现实问题都需要处理以TB计算的大量数据集,用一台高性能的电脑处理不仅成本高,出错率高及速度慢这些问题都令人头疼. ...

  6. 大数据关键技术——MapReduce

    传统的数据采集来源单一,且存储.管理和分析数据量也相对较小,大多采用关系型数据库和并行数据仓库即可处理,并且数据处理方法是以处理器为中心,处理的大多是结构化数据. 随着互联网的发展,数据来源日渐丰富且 ...

  7. Hadoop大数据零基础高端实战培训系列配文本挖掘项目

    <Hadoop大数据零基础高端实战培训系列配文本挖掘项目(七大亮点.十大目标)> 课程讲师:迪伦 课程分类:大数据 适合人群:初级 课时数量:230课时 用到技术:部署Hadoop集群 涉 ...

  8. python大数据零基础_零基础学习大数据人工智能,学习路线篇!

    大数据处理技术怎么学习呢?首先我们要学习Python语言和Linux操作系统,这两个是学习大数据的基础,学习的顺序不分前后. Python:Python 的排名从去年开始就借助人工智能持续上升,现在它 ...

  9. 大数据入门基础系列之初步认识大数据生态系统圈(博主推荐)

    不多说,直接上干货! 之前在微信公众平台里写过 大数据入门基础系列之初步认识hadoop生态系统圈 http://mp.weixin.qq.com/s/KE09U5AbFnEdwht44FGrOA 大 ...

  10. 哈工大《大数据计算基础》期末考试2021

    哈工大<大数据计算基础>期末考试2021 去年学长的链接2020年大数据基础 判断 10道,基本都比较简单 比如: 大数据就是1T以上的数据 大数据技术框架是否都是并行计算的 简答:4 x ...

最新文章

  1. 详解Linux多线程编程
  2. 在ASP.Net中使用FCKeditor
  3. SpringCloud学习笔记008---杂七杂八002_spring 注解@Value详解_@Value(quot;#{}quot;)与@Value(quot;${}quot;)的区别
  4. 【观点】失败应聘的五大原因
  5. Java铬钼钢车架几何_车架的几何尺寸
  6. SSH学习之四 OpenSSH安全
  7. 支持J2EE架构的服务器,利用J2EE架构构建Web服务实现应用集成
  8. windows资源管理器管理工具Qttabbar个人使用总结
  9. 在Centos8编译Wireshark3.4.5
  10. 自定义启动 android_什么是自定义Android启动器,以及为什么可能要使用一个
  11. 决策树算法--C4.5算法
  12. JavaSE(J2SE)入门学习笔记(二)
  13. mysql下出现Unknown column ‘id‘ in ‘on clause‘的解决方法
  14. 多线程详解第3讲:线程状态
  15. cas:1628790-40-8|脂溶性Cyanine7-COOH|CY7-Carboxylic Acid
  16. INTERLLij IDEA 修改背景颜色护眼
  17. 第七届电工专项 如何进行焊接
  18. 质感设计 android,扣丁学堂Android开发Flutter质感设计之底部导航
  19. C# 文件操作类大全
  20. 打开腾讯云服务器桌面步骤

热门文章

  1. python图像识别依赖包安装和环境配置
  2. 一:各种熵的定义及理解
  3. 金融IT 行业常见术语
  4. codeforce 332B Maximum Absurdity
  5. 走进Java Android 的线程世界(三)Hander消息机制
  6. [乱七八糟]Google搜索使用详细
  7. 【Linux/内核】Linux内核rpm包和源码包下载地址-20210107
  8. CDH6.3.1安装
  9. 数据分享|R语言关联规则挖掘apriori算法挖掘评估汽车性能数据
  10. 学习Struts框架系列(一):模拟Struts工作流程