天龙八部:

map阶段:
第一步:读取文件,解析成key,value对,形成k1,v1;
第二步:接受k1,v1,自定义逻辑,转换成新的k2,v2,进行输出

shuffle阶段:
第三步:分区:
相同key的value值发送到同一个reduce中去,key合并,value形成一个集合
第四步:排序 默认按照自字段顺序进行排序
第五步:规约
第六步:分组

reduce阶段
第七步:接受k2,v2 自定义reduce逻辑,转换成新的k3,v3进行输出
第八步:将k3,v3进行输出

注意:
上面八个任务都是单独的一个java类,
八个步骤完了以后,通过job任务组装mr程序,
进行任务的提交

最简单的MapReduce程序:

主类:


package MR;import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.conf.Configured;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.util.ToolRunner;public class MainCount extends Configured implements Tool {public static void main(String[] args) throws Exception {//这里执行完成后,得到一个int类型的返回值,表示我们的程序退出状态码//如果退出的是0,程序执行成功//这里设置configuration,相当于我们把父类的configuration设置值了int run = ToolRunner.run(new Configuration(), new MainCount(), args);System.exit(run);}/*必须实现run方法,这里面就是通过job对象来组装我们程序,组装八个类*/@Overridepublic int run(String[] strings) throws Exception {//第一步:读取文件,解析成key,value//获取一个job,job的作用主要是用来组装MapReduce各个阶段的任务//Job的getInstance方法需要两个参数,第一个是一个Configuration的实例,第二个是jobName,可以自己随便定义Job job = Job.getInstance(super.getConf(), "xxx");//把job和需要操作的文件所在的目录添加进来,注意此时增加的目录TextInputFormat.addInputPath(job,new Path("hdfs://hadoop11:8020/wordcount"));//打包到集群,必须添加如下配置,不添加的话会报错job.setJarByClass(MainCount.class);//指定job需要执行的任务的原始数据的类型job.setInputFormatClass(TextInputFormat.class);//第二步:自定义map类//指定mapjob.setMapperClass(WordCountMapper.class);//设置k2,v2的类型job.setMapOutputKeyClass(Text.class);job.setMapOutputValueClass(IntWritable.class);//第七步:自定义reduce类//指定reducejob.setReducerClass(WordCountReducer.class);//设置k3.v3job.setOutputKeyClass(Text.class);job.setOutputValueClass(IntWritable.class);//第八步:输出文件//指定路径TextOutputFormat.setOutputPath(job,new Path("hdfs://hadoop11:8020/wordcountoutput"));//设置job输出数据的类型job.setOutputFormatClass(TextOutputFormat.class);//提交任务到集群boolean b = job.waitForCompletion(true);//使用三元表达确认返回值return b?0:1;}
}

定义一个map类:

package MR;import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;import java.io.IOException;
//定义四个泛型
/*
k1--行偏移量
v1--行内容
k2--单词内容
v2--单词的次数*/
public class WordCountMapper extends Mapper<LongWritable, Text,Text, IntWritable> {/***必须重写map方法,实现逻辑* @param key       LongWritable key--代表k1* @param value     Text value--代表v1* @param context   Context context--上下文对象,将数据往下发送* @throws IOException* @throws InterruptedException*/@Overrideprotected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {//第一步:将行数据进行切分,用逗号进行分割String[] words = value.toString().split(",");//遍历切分的文字,通过write方法向下发送for(String word:words){context.write(new Text(word),new IntWritable(1));}}
}

定义一个reduce类

package MR;import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;import java.io.IOException;
//reduce的泛型参数代表k2,v2,k3,v3
public class WordCountReducer extends Reducer<Text, IntWritable,Text,IntWritable> {/***和map类同理,必须重写reduce方法* @param key   Text key--k2* @param values  Iterable<IntWritable> values--是一个集合,v2的类型* @param context   承上启下,向下发送* @throws IOException* @throws InterruptedException*/@Overrideprotected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {//sum用来统计values的个数int sum=0;for (IntWritable value:values){// ntWritable是一个对象,而如果想要用int参加计算,那么我们需要调用IntWritable对象的一个成员get(),这个函数返回int.sum+=value.get();}context.write(key,new IntWritable(sum));}
}

MapReduce程序运行模式

本地运行模式

(1)mapreduce程序是被提交给LocalJobRunner在本地以单进程的形式运行
(2)而处理的数据及输出结果可以在本地文件系统,也可以在hdfs上
(3)怎样实现本地运行?写一个程序,不要带集群的配置文件
本质是程序的conf中是否有mapreduce.framework.name=local以及yarn.resourcemanager.hostname=local参数
(4)本地模式非常便于进行业务逻辑的debug,只要在eclipse中打断点即可

本地模式运行代码设置
configuration.set(“mapreduce.framework.name”,“local”);
configuration.set(“yarn.resourcemanager.hostname”,“local”);
TextInputFormat.addInputPath(job,new Path(“file:///F:\传智播客大数据离线阶段课程资料\3、大数据离线第三天\wordcount\input”));
TextOutputFormat.setOutputPath(job,new Path(“file:///F:\传智播客大数据离线阶段课程资料\3、大数据离线第三天\wordcount\output”));

集群运行

程序运行,将项目打包,发送至hadop集群上执行

hadoop jar original-day03_hdfs-1.0-SNAPSHOT.jar.0 MR.MainCount

MapReduce分区和排序

分区的思路:

第一步:读取文件,形成k1–Longwritab,v1–text
第二步:自定义map接收k1,v1 转换成k2–text,v2–LongWritable
第三步:自定义一个分区类:
使用getPartition()方法
对k2进行分割,得到一个数组,使用数组下标得到一个result值
使用result值作为分区依据
>result 返回 分区号
<result 返回分区号

第四步:自定义reduce类接受k2,v2 直接写出去即可,转换成k3–text,v3–Nullwritab直接输出

简单的案例:

主类:

package mr.demo1;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.conf.Configured;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.util.ToolRunner;public class PartitionMain extends Configured implements Tool {@Overridepublic int run(String[] args) throws Exception {Job job = Job.getInstance(super.getConf(), "mypartiton");job.setJarByClass(PartitionMain.class);TextInputFormat.addInputPath(job,new Path(args[0]));job.setInputFormatClass(TextInputFormat.class);job.setMapperClass(PartitionMapper.class);job.setMapOutputKeyClass(Text.class);job.setMapOutputValueClass(NullWritable.class);//第三步job.setPartitionerClass(PartitonOwn.class);job.setReducerClass(PartitionReduce.class);job.setOutputKeyClass(Text.class);job.setOutputValueClass(NullWritable.class);//设置redeuce的数量,不设置不行//reduce的个数和分区数相同job.setNumReduceTasks(2);job.setOutputFormatClass(TextOutputFormat.class);TextOutputFormat.setOutputPath(job,new Path(args[1]));boolean b = job.waitForCompletion(true);return b?0:1;}public static void main(String[] args) throws Exception {int run = ToolRunner.run(new Configuration(), new PartitionMain(), args);System.exit(run);}}

mapper类

package mr.demo1;import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;import java.io.IOException;public class PartitionMapper extends Mapper<LongWritable, Text,Text, NullWritable> {@Overrideprotected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {context.write(value,NullWritable.get());}
}

reduce类:

package mr.demo1;import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;import java.io.IOException;public class PartitionReduce extends Reducer<Text, NullWritable,Text,NullWritable> {@Overrideprotected void reduce(Text key, Iterable<NullWritable> values, Context context) throws IOException, InterruptedException {context.write(key,NullWritable.get());}
}

分区类:

package mr.demo1;import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Partitioner;public class PartitonOwn extends Partitioner<Text, NullWritable> {@Overridepublic int getPartition(Text text, NullWritable nullWritable, int numReduceNum) {String line = text.toString();String[] split = line.split("\t");if(Integer.parseInt(split[5])>15){return 0;}else {return 1;}}}

排序的思路:

第一步:读取文件,解析成k1–LongWritable,v1–text
第二步:自定义javaBean,实现WritableComparable,接受k1,v1
转换成k2–JavaBean,v2–Nullwritable
第三步:接受k2,v2不做处理,直接输出

主类:

package mrSort.demo1;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.conf.Configured;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.util.ToolRunner;public class SortMain extends Configured implements Tool {@Overridepublic int run(String[] strings) throws Exception {Job job = Job.getInstance(super.getConf(), "sort");//解析文件job.setInputFormatClass(TextInputFormat.class);TextInputFormat.addInputPath(job,new Path("file:///E:\\baishi\\测试目录\\input\\sort.txt"));//自定义map逻辑job.setMapperClass(SortMapper.class);job.setMapOutputKeyClass(k2Bean.class);job.setMapOutputValueClass(NullWritable.class);//自定义reducejob.setReducerClass(SortReduce.class);job.setOutputKeyClass(k2Bean.class);job.setOutputValueClass(NullWritable.class);job.setOutputValueClass(TextOutputFormat.class);TextOutputFormat.setOutputPath(job,new Path("file:///E:\\baishi\\测试目录\\output04"));boolean b = job.waitForCompletion(true);return b?0:1;}public static void main(String[] args) throws Exception {Configuration configuration=new Configuration();System.exit(ToolRunner.run(configuration,new SortMain(),args));}}

k2bean排序类:

package mrSort.demo1;import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.io.WritableComparable;import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException;public class k2Bean implements WritableComparable<k2Bean>{/*封装两个字段*/private  String first;private Integer second;/*用于数据的比较排序*/@Overridepublic int compareTo(k2Bean o) {/*int a=compareto(b);如果a>b  返回1;如果a=b,返回0;如果a<b,返回-1;所以比较两个字段比较的话,只能用大于0,等于0,小于0表示*///当前的值和传进来的o进行比较//如果第一个字段相同,就比较第二个字段//如果第二个字段相同,就直接返回结果int i = this.first.compareTo(o.first);if(i ==0){//比较第二个字段int i1 = second.compareTo(o.second);return i1;}else {return i;}}/*序列化*/@Overridepublic void write(DataOutput dataOutput) throws IOException {dataOutput.writeUTF(first);dataOutput.writeInt(second);}/*反序列化*/@Overridepublic void readFields(DataInput dataInput) throws IOException {this.first=dataInput.readUTF();this.second=dataInput.readInt();}public String getFirst() {return first;}public void setFirst(String first) {this.first = first;}public Integer getSecond() {return second;}public void setSecond(Integer second) {this.second = second;}@Overridepublic String toString() {return first +"\t"+second;}
}

mapper类

package mrSort.demo1;import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Counter;
import org.apache.hadoop.mapreduce.Mapper;import java.io.IOException;public class SortMapper extends Mapper<LongWritable, Text,k2Bean, NullWritable> {@Overrideprotected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {//自定义计数器,计数map阶段输入多少条数据Counter counter = context.getCounter("mr_intput_count", "map_total_result");counter.increment(1L);String[] split = value.toString().split("\t");k2Bean k2Bean = new k2Bean();k2Bean.setFirst(split[0]);k2Bean.setSecond(Integer.parseInt(split[1]));context.write(k2Bean,NullWritable.get());}
}

reduce类

package mrSort.demo1;import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.mapreduce.Counter;
import org.apache.hadoop.mapreduce.Reducer;import java.io.IOException;public class SortReduce extends Reducer<k2Bean, NullWritable,k2Bean,NullWritable> {//定义一个类public static  enum Counter{REDUCE_INPUT_RECORD,REDUCE_OUTPUT_RECORD,}@Overrideprotected void reduce(k2Bean key, Iterable<NullWritable> values, Context context) throws IOException, InterruptedException {//定义计数器,计数reduce输出条数org.apache.hadoop.mapreduce.Counter counter = context.getCounter(Counter.REDUCE_INPUT_RECORD);counter.increment(1L);for (NullWritable value:values) {org.apache.hadoop.mapreduce.Counter counter1 = context.getCounter(Counter.REDUCE_OUTPUT_RECORD);counter1.increment(1L);//将排序后的数据进行输出context.write(key, NullWritable.get());}}
}

规约的过程

发生在reduce阶段,接收k2,v2
combiner不改变数据结果,只用于调优,减少发送到reduce的数据量

思路:
第一步:读取文件,解析k1–LongWritable,v1-text
第二步:自定义javabean,转换成k2–javabean,v2–Nullwritab,输出
第三步:自定义一个Combiner规约类,接受k2,v2 ,直接输出
注释:因为combine类和reduce类一直,所以一般直接调用reduce类
job.setCombinerClass(SortReduce.class);
第四步:自定义reduce类直接输出

案例:MapReduce案例

MapReduce天龙八部相关推荐

  1. 分布式计算引擎MapReduce

    应用场景 当数据量大到一定程度,传统的技术无法进行解决的时候,那么需要采用分布式计算引擎MapReduce来尝试解决了! 操作步骤 1. 架构图 Hadoop是由Apache基金会所开发的分布式系统基 ...

  2. 04 分布式文件系统以及MapReduce入门程序

    文章目录 04 分布式文件系统以及MapReduce入门程序 分布式文件系统HDFS 1.分布式文件系统hdfs详细介绍 2.HDFS分布式文件系统设计目标 3.HDFS的来源 4.hdfs的架构图 ...

  3. 【hadoop 学习笔记-3】wordcount 统计小说天龙八部中汉字出现的频率

    说明 天龙八部小说,3MB+  中文  140W字以上. 用wordcount 统计一下每个不同的汉字 / 词汇出现的次数. Mapper package com.test;import org.ap ...

  4. mapreduce理解_大数据

    map:对不同的数据进行同种操作 reduce:按keys 把数据规约到一起 看这篇文章请出去跑两圈,然后泡一壶茶,边喝茶,边看,看完你就对hadoop 与MapReduce的整体有所了解了. [前言 ...

  5. 2021年大数据Hadoop(二十二):MapReduce的自定义分组

    全网最详细的Hadoop文章系列,强烈建议收藏加关注! 后面更新文章都会列出历史文章目录,帮助大家回顾知识重点. 目录 本系列历史文章 前言 MapReduce的自定义分组 需求 分析 实现 第一步: ...

  6. 第2节 mapreduce深入学习:4, 5

    第2节 mapreduce深入学习:4.mapreduce的序列化以及自定义排序 序列化(Serialization)是指把结构化对象转化为字节流. 反序列化(Deserialization)是序列化 ...

  7. 第一个MapReduce程序

    计算文件中每个单词的频数 wordcount 程序调用 wordmap 和 wordreduce 程序. 1 import org.apache.hadoop.conf.Configuration; ...

  8. hadoop程序MapReduce之SingletonTableJoin

    需求:单表关联问题.从文件中孩子和父母的关系挖掘出孙子和爷奶关系 样板:child-parent.txt xiaoming daxiong daxiong alice daxiong jack 输出: ...

  9. 初学Hadoop之图解MapReduce与WordCount示例分析

    Hadoop的框架最核心的设计就是:HDFS和MapReduce.HDFS为海量的数据提供了存储,MapReduce则为海量的数据提供了计算. HDFS是Google File System(GFS) ...

最新文章

  1. 计算机复试题库.doc,计算机基础知识面试题库.doc
  2. openwrt安装oracle,Openwrt安装软件的方法-tomcat 随笔小记-install ubuntu 12.04 in virtualbox_169IT.COM...
  3. Matlab 2012安装图解
  4. 【软考-软件设计师】校验码
  5. java 安全库_国家信息安全漏洞库
  6. Android获取手机联系人或通讯录的基本信息(如姓名、电话)
  7. hive或mysql报错Too many connections
  8. mysql查询_MYSQL查询
  9. Eclipse的快捷键大全
  10. curl http_code状态码 含义
  11. Python按照索引访问list
  12. splay详解(二)
  13. 软件基本功:代码要有道理
  14. VB简易绘图板的实现
  15. 学生信息管理系统心得
  16. 如何完全禁止win10自动更新(自动升级)
  17. 解决MAC OS X不识别Kindle Fire
  18. 查看一个进程打开了哪些文件的命令
  19. Window10蓝牙无法连接的解决方案(已成功)
  20. 使用packet Tracer配置静态路由和动态路由

热门文章

  1. Qt+WebAssembly学习笔记(六)win10+Qt6.4.0rc1开发环境搭建
  2. thinkphp利用正则表达式实现艾特@
  3. C语言检测数独是否合法,判断数独是否合法
  4. 给计算机导师写对联,送给导师的对联
  5. 算法竞赛进阶指南学习day6
  6. C#热更新方案的选择
  7. (转)解读:孔子在中国与世界历史上的十种形象
  8. 【uni-app、vue】scroll滑动、二级分类任性多选
  9. 人生苦短我用python谁说的_人生苦短,我用 Python
  10. LTE小区重选流程详解