案例一

在hadoop上进行编写mapreduce程序,统计关键词在text出现次数。
mapreduce的处理过程分为2个阶段,map阶段,和reduce阶段。在要求统计指定文件中的所有单词的出现次数时,
map阶段把每个关键词写到一行上以逗号进行分隔,并初始化数量为1(相同的单词hadoop中的map会自动放到一行中)
reduce阶段是把每个单词出现的频率统计出来重新写回去。

//MyMapper.java
package com.clq.hadoop2;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
public class MyMapper extends Mapper<LongWritable, Text, Text, IntWritable> {final Text key2 = new Text();final IntWritable value2 = new IntWritable(1);// value2 表示单词在该行中的出现次数// key 表示文本行的起始位置,value 表示文本行protected void map(LongWritable key, Text value, Context context)throws java.io.IOException, InterruptedException {final String[] splited = value.toString().split(",");for (String word : splited) {key2.set(word);context.write(key2, value2);// 把key2、value2写入到context中}}
}//MyReducer.java
package com.clq.hadoop2;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;
public class MyReducer extends Reducer<Text, IntWritable, Text, IntWritable> {final IntWritable value3 = new IntWritable(0);// value3表示单词出现的总次数/*** key 表示单词 values 表示map方法输出的1的集合 context 上下文对象*/protected void reduce(Text key, java.lang.Iterable<IntWritable> values,Context context) throws java.io.IOException, InterruptedException {int sum = 0;for (IntWritable count : values) {sum += count.get();}// 执行到这里,sum表示该单词出现的总次数,key3表示单词,是最后输出的keyfinal Text key3 = key;value3.set(sum);// value3表示单词出现的总次数,是最后输出的valuecontext.write(key3, value3);}
}//MapperReducer.java
package com.clq.hadoop2;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.lib.HashPartitioner;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
public class MapperReducer {public static void main(String[] args) throws IOException,InterruptedException, ClassNotFoundException {//指定输入和输出路径final String INPUT_PATH = "hdfs://ubuntu:9000/Input";final String OUTPUT_PATH = "hdfs://ubuntu:9000/output";//创建一个job对象封装运行时所需要的信息final Job job = new Job(new Configuration(),"MapperReducer");//打成jar执行job.setJarByClass(MapperReducer.class);FileInputFormat.setInputPaths(job, INPUT_PATH);FileOutputFormat.setOutputPath(job, new Path(OUTPUT_PATH));//指定自己自定义的mapper类job.setMapperClass(MyMapper.class);//指定运行mapper类型job.setMapOutputKeyClass(Text.class);job.setMapOutputValueClass(IntWritable.class);//指定自己定义的reducer类job.setReducerClass(MyReducer.class);//指定reducer的key和value类型job.setInputFormatClass(TextInputFormat.class);job.setOutputFormatClass(TextOutputFormat.class);job.waitForCompletion(true);}
}

案例二

Hadoop的改进实验(中文分词词频统计及英文词频统计) 博文目录结构

1)Hadoop的改进实验(中文分词词频统计及英文词频统计)(1/4)https://www.cnblogs.com/bitpeach/p/3756148.html
2)Hadoop的改进实验(中文分词词频统计及英文词频统计)(2/4)https://www.cnblogs.com/bitpeach/p/3756164.html
3)Hadoop的改进实验(中文分词词频统计及英文词频统计)(3/4)https://www.cnblogs.com/bitpeach/p/3756167.html
4)Hadoop的改进实验(中文分词词频统计及英文词频统计)(4/4)https://www.cnblogs.com/bitpeach/p/3756172.html

案例三

Hadoop上的中文分词与词频统计实践:首先来推荐相关材料:http://xiaoxia.org/2011/12/18/map-reduce-program-of-rmm-word-count-on-hadoop/。小虾的这个统计武侠小说人名热度的段子很有意思,照虎画猫来实践一下。与其不同的地方有:
0)其使用Hadoop Streaming,这里使用MapReduce框架。
1)不同的中文分词方法,这里使用IKAnalyzer,主页在http://code.google.com/p/ik-analyzer/。
2)这里的材料为《射雕英雄传》。

0)使用WordCount源代码,修改其Map,在Map中使用IKAnalyzer的分词功能。

import java.io.IOException;
import java.io.InputStream;
import java.io.InputStreamReader;
import java.io.Reader;
import java.io.ByteArrayInputStream;
import org.wltea.analyzer.core.IKSegmenter;
import org.wltea.analyzer.core.Lexeme;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;
public class ChineseWordCount {public static class TokenizerMapper extends Mapper<Object, Text, Text, IntWritable>{private final static IntWritable one = new IntWritable(1);private Text word = new Text();public void map(Object key, Text value, Context context) throws IOException, InterruptedException {byte[] bt = value.getBytes();InputStream ip = new ByteArrayInputStream(bt);Reader read = new InputStreamReader(ip);IKSegmenter iks = new IKSegmenter(read,true);Lexeme t;while ((t = iks.next()) != null){word.set(t.getLexemeText());context.write(word, one);}}}public static class IntSumReducer extends Reducer<Text,IntWritable,Text,IntWritable> {private IntWritable result = new IntWritable();public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {int sum = 0;for (IntWritable val : values) {sum += val.get();}result.set(sum);context.write(key, result);}}public static void main(String[] args) throws Exception {Configuration conf = new Configuration();String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();if (otherArgs.length != 2) {System.err.println("Usage: wordcount <in> <out>");System.exit(2);}Job job = new Job(conf, "word count");job.setJarByClass(ChineseWordCount.class);job.setMapperClass(TokenizerMapper.class);job.setCombinerClass(IntSumReducer.class);job.setReducerClass(IntSumReducer.class);job.setOutputKeyClass(Text.class);job.setOutputValueClass(IntWritable.class);FileInputFormat.addInputPath(job, new Path(otherArgs[0]));FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));System.exit(job.waitForCompletion(true) ? 0 : 1);}
}

1)So,完成了,本地插件模拟环境OK。打包(带上分词包)扔到集群上。

hadoop fs -put chinese_in.txt chinese_in.txt
hadoop jar WordCount.jar chinese_in.txt out0
...mapping reducing...
hadoop fs -ls ./out0
hadoop fs -get part-r-00000 words.txt

2)数据后处理:
2.1)数据排序

head words.txt
tail words.txt
sort -k2 words.txt >0.txt
head 0.txt
tail 0.txt
sort -k2r words.txt>0.txt
head 0.txt
tail 0.txt
sort -k2rn words.txt>0.txt
head -n 50 0.txt

2.2)目标提取

awk '{if(length($1)>=2) print $0}' 0.txt >1.txt

2.3)结果呈现

head 1.txt -n 50 | sed = | sed 'N;s/\n//'1郭靖   6427
2黄蓉   4621
3欧阳   1660
4甚么   1430
5说道   1287
6洪七公 1225
7笑道   1214
8自己   1193
9一个   1160
10师父  1080
11黄药师        1059
12心中  1046
13两人  1016
14武功  950
15咱们  925
16一声  912
17只见  827
18他们  782
19心想  780
20周伯通        771
21功夫  758
22不知  755
23欧阳克        752
24听得  741
25丘处机        732
26当下  668
27爹爹  664
28只是  657
29知道  654
30这时  639
31之中  621
32梅超风        586
33身子  552
34都是  540
35不是  534
36如此  531
37柯镇恶        528
38到了  523
39不敢  522
40裘千仞        521
41杨康  520
42你们  509
43这一  495
44却是  478
45众人  476
46二人  475
47铁木真        469
48怎么  464
49左手  452
50地下  448

【补充】
1)Elasticsearch之中文分词器插件es-ik(博主推荐)https://www.cnblogs.com/zlslch/p/6440373.html
2)Elasticsearch系列(四)–安装中文分词器https://blog.csdn.net/ljj2312/article/details/94714367

一、下载中文分词器https://github.com/medcl/elasticsearch-analysis-ik
1、下载:elasticsearch-analysis-ik-master.zip
2、解压: unzip elasticsearch-analysis-ik-master.zip
3、安装maven:



案例四

Windows 7平台基于Hadoop hdfs的中文分词统计和排序
https://blog.csdn.net/yangdanbo1975/article/details/78478468

部分代码:

//map函数
public void map(Object key, Text value, Context context)throws IOException, InterruptedException {String line = value.toString().toLowerCase(); // 全部转为小写字母/** line = line.replaceAll(pattern, " "); // 将非0-9, a-z, A-Z的字符替换为空格* StringTokenizer itr = new StringTokenizer(line); while* (itr.hasMoreTokens()) { word.set(itr.nextToken());* context.write(word, one); }*/try {//中文分词InputStream is = new ByteArrayInputStream(line.getBytes("UTF-8"));IKSegmenter seg = new IKSegmenter(new InputStreamReader(is),false);Lexeme lex = seg.next();while (lex != null) {String text = lex.getLexemeText();word.set(text);context.write(word, one);// output.collect(word, one);lex = seg.next();}//reduce函数
public void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {int sum = 0;for (IntWritable val : values) {sum += val.get();}result.set(sum);context.write(key, result);//保存结果totalWords.put(key.toString(), Integer.valueOf(sum));}

案例五

Hadoop-统计红楼梦里出现名字的次数(MapReduce学习)https://www.cnblogs.com/Decmber/p/5491887.html

package org.bigdata508.util;
import java.io.BufferedReader;
import java.io.File;
import java.io.FileNotFoundException;
import java.io.FileReader;
import java.io.IOException;
import java.io.StringReader;
import java.util.ArrayList;
import java.util.HashSet;
import java.util.List;
import java.util.Set;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.analysis.tokenattributes.CharTermAttribute;
import org.bigdata.util.HadoopCfg;
import org.wltea.analyzer.lucene.IKAnalyzer;
public class DreamOfRedMansion {public static Set<String> dic = new HashSet<>();static {String ProjectPath = DreamOfRedMansion.class.getResource("/").getFile().toString();try {BufferedReader br = new BufferedReader(new FileReader(new File(ProjectPath + File.separator + "\\DreamOfRed.txt")));String line=null;while((line=br.readLine())!=null){line=line.replaceAll("\\s+", "");dic.add(line);}br.close();} catch (FileNotFoundException e) {e.printStackTrace();} catch (IOException e) {e.printStackTrace();}}private static List<String> parse(String text){List<String> words = new ArrayList<String>();//创建IKAnalyzer中文分词对象  IKAnalyzer analyzer = new IKAnalyzer();  // 使用智能分词  analyzer.setUseSmart(true);// 分词StringReader reader = new StringReader(text);try {TokenStream ts = analyzer.tokenStream("content",reader);CharTermAttribute strs = ts.getAttribute(CharTermAttribute.class);ts.addAttribute(CharTermAttribute.class); // 遍历分词数据while (ts.incrementToken()) {if(dic.contains(strs.toString())){words.add(strs.toString());}}} catch (IOException e) {e.printStackTrace();}reader.close();return words;}private static class DreamOfRedMansionMapper extends Mapper<LongWritable, Text, Text, LongWritable> {@Overrideprotected void map(LongWritable key, Text value, Context context)throws IOException, InterruptedException {List<String> names = parse(value.toString());for (String name : names) {context.write(new Text(name), new LongWritable(1));}}}private static class DreamOfRedMansionReducer extends Reducer<Text, LongWritable, Text, LongWritable> {@Overrideprotected void reduce(Text key, Iterable<LongWritable> values,Context context) throws IOException, InterruptedException {Long sum = 0L;for (LongWritable value : values) {sum = sum + value.get();}context.write(new Text(key+","), new LongWritable(sum));}}public static class DreamOfRedMansionSortMapper extends Mapper<LongWritable, Text, LongWritable, Text>{@Overrideprotected void map(LongWritable key, Text value, Mapper<LongWritable, Text, LongWritable, Text>.Context context)throws IOException, InterruptedException {LongWritable data = new LongWritable(Integer.parseInt(value.toString().split(",")[1].trim()));context.write(data, new Text(value.toString().split(",")[0]));}}public static class DreamOfRedMansionSortReduce extends Reducer<LongWritable, Text, Text, LongWritable>{@Overrideprotected void reduce(LongWritable key, Iterable<Text> values,Reducer<LongWritable, Text, Text, LongWritable>.Context context) throws IOException, InterruptedException {for(Text str : values){context.write(str, key);}}}public static void main(String[] args) throws Exception{Configuration cfg = HadoopCfg.getInstance();Job job = Job.getInstance(cfg);job.setJobName("DreamOfRedMansion");job.setJarByClass(DreamOfRedMansion.class);// mapperjob.setMapperClass(DreamOfRedMansionMapper.class);job.setMapOutputKeyClass(Text.class);job.setMapOutputValueClass(LongWritable.class);// reducerjob.setReducerClass(DreamOfRedMansionReducer.class);job.setOutputKeyClass(Text.class);job.setOutputValueClass(LongWritable.class);FileInputFormat.addInputPath(job, new Path("/DreamOfRedMansionInput"));FileOutputFormat.setOutputPath(job, new Path("/red_Out/"));job.waitForCompletion(true);Configuration conf = HadoopCfg.getInstance();Job job2 = Job.getInstance(conf);job2.setJobName("DreamOfRedMansionSort");job2.setJarByClass(DreamOfRedMansion.class);// sortmapperjob2.setMapperClass(DreamOfRedMansionSortMapper.class);job2.setMapOutputKeyClass(LongWritable.class);job2.setMapOutputValueClass(Text.class);// sortreducerjob2.setReducerClass(DreamOfRedMansionSortReduce.class);job2.setOutputKeyClass(Text.class);job2.setOutputValueClass(LongWritable.class);FileInputFormat.addInputPath(job2, new Path("/red_Out"));FileOutputFormat.setOutputPath(job2, new Path("/red_Out_sort/"));job2.waitForCompletion(true);}
}
//dic词典获取匹配名字:
//DreamOfRed.txt
林黛玉
薛宝钗
贾元春
贾迎春
贾探春
贾惜春
李纨
妙玉
湘云
王熙凤
贾巧姐
秦可卿
晴雯
麝月
袭人
鸳鸯
雪雁
紫鹃
碧痕
平儿
香菱
金钏
司棋
抱琴
赖大
焦大
王善保
周瑞
林之孝
乌进孝
包勇
吴贵
吴新登
邓好时
王柱儿
余信
庆儿
昭儿
兴儿
隆儿
坠儿
喜儿
寿儿
丰儿
住儿
小舍儿
李十儿
玉柱儿
贾敬
贾赦
贾政
贾宝玉
贾琏
贾珍
贾环
贾蓉
贾兰
贾芸
贾蔷
贾芹
琪官
芳官
藕官
蕊官
药官
玉官
宝官
龄官
茄官
艾官
豆官
葵官
妙玉
智能
智通
智善
圆信
大色空
净虚
彩屏
彩儿
彩凤
彩霞
彩鸾
彩明
彩云
甄宝玉
薛宝琴
薛蟠
薛蝌
王夫人
王子腾
王仁
尤老娘
尤氏
尤二姐
尤三姐
贾敏
贾瑞
贾代儒
贾代化
贾代修
贾代善
詹光
单聘仁
程日兴
王作梅
石呆子
张华
冯渊
张金哥
茗烟
扫红
锄药
伴鹤小鹊
小红
小蝉
刘姥姥
马道婆
宋嬷嬷
张妈妈
秦锺
蒋玉菡
柳湘莲
东平王
乌进孝
冷子兴
山子野
方椿
载权
夏秉忠
周太监
裘世安
抱琴
司棋
侍画
入画
珍珠
琥珀
玻璃
翡翠
二木头
二丫头
卜氏
卜世仁
卜固修
入画
入画之叔
入画之婶
于老爷
大了
大姐
大姐儿
万儿
万虚
山子野
小红
小霞
小螺
小蝉
小鹊
小厮
小丫头
小幺儿
小内监
小舍儿
小蝉儿
小鸠儿
小道士
小吉祥儿
川宁侯
门子
义忠亲王
卫若兰
女尼
女先儿
马尚
马魁
马道婆
丰儿
王仁
王氏
王公
王成
王兴
王忠
王荣
王信
王一贴
王大人
王大夫
王大妈
王大爷
王子胜
王子腾
王太医
王尔调
王奶奶
王奶妈
王老爷
王作梅
王住儿
王君效
王希献
王和荣
王济仁
王青儿
王板儿
王狗儿
王家的
王短腿
王善保
王道士
王嬷嬷
王成之父
王兴媳妇
王信家的
王子腾夫人
王住儿媳妇
王善保家的
云儿
云光
云老爷五儿
五嫂子
元春
木居士
太妃
太上皇
太祖皇帝
尤氏
尤二姐
尤三姐
尤老娘
尤婆子
尤氏母亲
尤老安人
少妃
牛清
牛继宗
毛半仙
乌进孝
乌庄
长府官
长安守备
长安府知府
长安守备之子
仇都尉
凤姐
凤哥
凤丫头
凤哥儿
凤辣子
文化
文官
文清
文妙真人
方杏
方椿
引泉
引愁
金女
双寿
双瑞
孔继宗
书吏
水溶
水仙庵姑子
玉官
玉桂
玉爱
玉桂儿
玉钏儿
玉钏儿娘
玉桂儿家
玉桂儿媳妇
玉柱儿媳妇
巧姐
艾官
可人
可儿
石头
石光珠
石呆子
石头
呆子
平儿
平安节度
东平郡王
世荣
田妈
叶生
叶妈
史公
史鼎
史鼐
史太君
史湘云
史鼎夫人
史鼐夫人
史湘云夫
史湘云父
史湘云母
四儿
四姐
四姐儿
北静王
北静郡王
北静王妃
包勇
白玉钏
白老媳妇
白老媳妇儿
乐善郡王
外藩王爷
宁国公
冯仆
冯唐
冯渊
冯胖子
冯紫英
司棋
司棋妈
邢氏
邢忠
邢大舅
夫人
邢岫烟
邢嫂子
邢德全
老三
老赵
老僧
老太妃
老苍头
老田妈
老宋妈
老祝妈
老张妈
老叶妈
老王家的
老王道士
西平王爷
西宁郡王
灰待者
毕大人
毕知庵
扫红
扫花
豆官
同贵
同喜朱大娘
朱嫂子
多官儿
多姑娘
多浑虫
多姑娘儿
色空
邬将军
庆儿
庆国公
刘四
刘氏
刘妈
刘大夫
刘铁嘴
兴儿
安国公
许氏
守备之子
阴阳生
孙大人
孙绍祖
寿儿
寿山伯
芸香
芳官
花母
花自芳
花姐姐
花袭人
花大姐姐
严老爷
杏奴
李二
李氏
李妈
李纨
李孝
李纹
李贵
李祥
李绮
李德
李十儿
李少爷
李奶子
李奶奶
李守忠
李先儿
李店主
李宫裁
李员外
李御史
李婶子
李婶娘
李衙内
李嬷嬷
杨氏
杨待郎
杨提督
来升
来兴
来旺
来喜
来旺儿
来升媳妇
来旺之子
来旺家的
来旺媳妇
来喜家的
来喜媳妇
吴良
吴贵
吴兴
吴大人
吴大娘
吴天佑
吴巡抚
吴贵儿
吴贵妃
吴贵妻
吴新登
吴兴登
吴兴家的
吴贵媳妇
吴新登媳妇
吴巡抚大人
时觉
时福
呆霸王
何三
何妈
何婆
住儿
伴鹤
余信
余信家的
迎春
迎春妈
冷子兴
冷子兴家的
沁香
沈世兄
沈嬷嬷
宋妈
宋妈妈
宋嬷嬷
忘仁
良儿
妙玉
张二
张大
张三
张公
张华
张材
张暂
张大夫
张王氏
张太医
张友士
张先生
张老爷
张奶妈
张如圭
张法官
张若锦
张金哥
张财主
张家的
张真人
张道士
张德辉
张爷爷
张大老爷
张材家的
陈翼
陈也俊
陈瑞文
坠儿
坠儿娘
青儿
英莲
茄官
林三
林海
林妈
林大娘
林之孝
林如海
林红玉
林之孝妇
林之孝家的
玫瑰花儿
板儿
枕霞旧友
拐子
抱琴
旺儿
旺儿家的
旺儿嫂子
旺儿媳妇
忠靖侯
忠义亲王
忠顺王爷
忠顺亲王贤德妃佳蕙
侍书
佩凤
金氏
金荣
金星
金钏
金哥
金彩
金文翔
金钏儿
金寡妇
金鸳鸯
金文翔妇
金文翔家的
金文翔的媳妇
金彩妻
狗儿周氏
周琼
周瑞
周二爷
周大娘
周大妈
周太监
周公子
周奶妈
周妈妈周贵妃
周姐姐
周家的
周姨娘
周嫂子
周财主
周瑞家的
周瑞媳妇
郑华郑好时
郑华家的
郑好时媳妇
郑好时家的
怡红公子
单大良
单大娘
单聘仁炒豆儿
净虚
宝玉
宝官
宝珠
宝钗
宝蟾
定儿
定城侯
空空道人
春纤
春燕
珍珠
珍大奶奶
珍大嫂子
玻璃
封氏
封肃
赵全
赵天栋
赵天梁
赵太监
赵亦华
赵老爷
赵奶妈
赵堂官
赵国基
赵侍郎
赵姨娘赵嬷嬷
赵姨奶奶
茜雪
药官
茫茫大士
荣国公
胡氏
胡太医
胡老爷胡君荣
胡斯来
胡道长
胡庸医
胡山子野
胡老名公
南安王
南安郡王南安王太妃
栓儿
柳氏
柳芳
柳彪
柳妈
柳五儿
柳家的
柳湘莲
柳嫂子柳婶子
柳二媳妇
柳家媳妇
柱儿
挑雪
临安伯
临昌伯
临安伯诰命临昌伯诰命
临安伯老太太
昭儿
昭容
钟情大士
秋纹
秋桐
秋菱
秋爽居士香怜
香菱
皇上
皇帝
皇太后
侯孝康
侯晓明
保宁侯
俞禄
度恨菩提
娄氏祝妈
神瑛侍者
送玉人
费大娘
娇红
娇杏
绛珠草
绛珠仙草
绛珠仙子绛花洞主
秦氏
秦显
秦钟
秦鲸卿
秦显之妻
秦显家的
素云莲花儿
莺儿
莺儿娘
栓儿
桂儿家的
贾化
贾氏
贾兰
贾母
贾芝
贾芸
贾芷
贾芬
贾芳
贾环
贾法
贾范
贾珍
贾荇
贾复
贾珖
贾珠
贾珩
贾效
贾菱
贾菌
贾萍
贾婆
贾琮
贾琛
贾蓝
贾菖
贾蓁
贾蓉
贾源
贾蔷
贾演
贾璜
贾璎
贾璘
贾敷
贾蘅
贾藻
贾天祥
贾代化
贾代修
贾代善
贾代儒
贾存周
贾雨村
贾时飞
贾恩侯
贾巧姐
贾喜鸾
贾四姐儿
贾蓉媳妇
贾琼之母
贾(王扁)之母
夏三
夏忠
夏妈
夏太太
夏太监
夏奶奶
夏金桂
夏守忠
夏秉忠
夏婆子
圆信
钱升
钱华
钱槐
倪二
兼美
通事官
绣凤
绣桔
绣鸾
琏二奶奶
黄莺
黄莺儿
曹雪芹
梅翰林
梅翰林之子
戚建辉
菱洲袭人
聋子老妈妈
雪雁
探春
惜春
紫云
紫绡
银姐
银蝶儿
偕鸾
偕鸳
彩儿
彩云
彩凤
彩屏
彩明
彩哥
彩鸾
彩嫔
彩霞
彩儿娘
彩霞妈
隆儿
绮霞
琪官
琪官儿
琥珀
靓儿
喜儿
喜鸾
葫芦僧
蒋子宁
蒋玉函
韩奇葵官
黑儿
景田侯
锄药
智通
智能
智善
智能儿
嵇好古
程日兴
傅试
傅秋芳
焦大
粤海将军
焙茗
善姐
善姐儿
谢鲲
跛足道人
渺渺真人
娲皇媚人
缕儿
瑞珠
瑞大奶奶
甄母
甄费
甄士隐
甄夫人
甄友忠
甄英莲
甄宝玉
甄应嘉
甄家娘子
甄应嘉夫人
蓉哥儿
蓉哥儿媳妇
赖二
赖大
赖升
赖尚荣
赖嫂子
赖嬷嬷
赖二家的
赖大家的
赖大奶奶
赖升家的
赖大的媳妇
裘良
裘世安
裘太监
龄官
畸人
傻大姐
傻大舅
傻大姐妈
锦乡侯锦
乡侯诰命
詹光
詹会
詹子亮
鲍二
鲍音
鲍太医
鲍二家的
鲍二媳妇
痴梦仙姑
碧月
碧痕
翡翠
静虚
槛外人
算命先生
潇湘妃子
嫣红
翠云
翠缕翠墨
璜嫂子
璜大奶奶
蕙香
蕉下客
蕊官
蕊珠
醉金刚
墨雨
篆儿
稻香老农
潘又安
潘三保
鹤仙
缮国公
靛儿
薛父
薛公
薛文起
薛姨妈
霍启臻儿
鹦哥
鹦鹉
穆莳
戴权
戴良
檀云
襄阳侯
藕官
藕榭
癞头僧
蘅芜君
警幻仙子
警幻仙姑
颦儿
颦卿

大数据管理技术 Hadoop-JavaAPI程序案例1相关推荐

  1. 尚硅谷大数据技术Hadoop教程-笔记03【Hadoop-HDFS】

    视频地址:尚硅谷大数据Hadoop教程(Hadoop 3.x安装搭建到集群调优) 尚硅谷大数据技术Hadoop教程-笔记01[大数据概论] 尚硅谷大数据技术Hadoop教程-笔记02[Hadoop-入 ...

  2. 尚硅谷大数据技术Hadoop教程-笔记01【大数据概论】

    视频地址:尚硅谷大数据Hadoop教程(Hadoop 3.x安装搭建到集群调优) 尚硅谷大数据技术Hadoop教程-笔记01[大数据概论] 尚硅谷大数据技术Hadoop教程-笔记02[Hadoop-入 ...

  3. 尚硅谷大数据技术Hadoop教程-笔记02【Hadoop-入门】

    视频地址:尚硅谷大数据Hadoop教程(Hadoop 3.x安装搭建到集群调优) 尚硅谷大数据技术Hadoop教程-笔记01[大数据概论] 尚硅谷大数据技术Hadoop教程-笔记02[Hadoop-入 ...

  4. 大数据技术Hadoop入门理论系列之一----hadoop生态圈介绍

    Technorati 标记: hadoop,生态圈,ecosystem,yarn,spark,入门 1. hadoop 生态概况 Hadoop是一个由Apache基金会所开发的分布式系统基础架构. 用 ...

  5. 大数据技术Hadoop的介绍

    大数据的基本处理流程与传统数据处理流程并无太大差异,主要区别在于:由于大数据要处理大量.非结构化的数据,所以在各处理环节中都可以采用并行处理.目前,Hadoop.MapReduce和Spark等分布式 ...

  6. 大数据技术hadoop入门级生态圈介绍

    hadoop 生态概况 Hadoop是一个由Apache基金会所开发的分布式系统基础架构. 用户可以在不了解分布式底层细节的情况下,开发分布式程序.充分利用集群的威力进行高速运算和存储. 具有可靠.高 ...

  7. 大数据技术---Hadoop

    一.Hadoop简介 Hadoop是apache软件基金会下的开源软件.支持多种编程语言(c,c++,python,java等). Hadoop两大核心:HDFS+MapReduce,海量数据的存储和 ...

  8. 大数据管理技术 | 实习五 Spark软件栈体验

    文章目录 实习五 Spark软件栈体验 Spark安装与启动 1.Spark RDD-WordCount 2.Spark SQL 3.Spark MLlib之Titanic 4.GraphX再现Pag ...

  9. 猿创征文|Hadoop大数据技术

    Hadoop大数据技术 Hadoop背景 Hadoop生态圈 Hadoop模式 HDFS 概述 优点 缺点 基本组成 NameNode Secondary NameNode DataNode YARN ...

  10. 大数据技术背景介绍(开号篇)

    1.什么是大数据? 大数据(Big Data),指无法在一定时间范围内用常规软件工具进行捕捉.管理和处理的数据集合,是需要新处理模式才能具有更强的决策力.洞察发现力和流程优化能力的海量.高增长率和多样 ...

最新文章

  1. Linux的Unicon资料
  2. Java 求分段函数g(x)的值
  3. 无论在哪里办公,保持注意力和减少数字干扰的7个技巧
  4. windows安装python3步骤_Windows下python3和python2安装与一起使用
  5. LeetCode 网易-2. 古老的游戏机
  6. 精通Android自定义View(十六)invalidate方法和requestLayout方法
  7. Django学习之十: staticfile 静态文件
  8. python中返回上一步操作的代码_【代码学习】PYTHON字符串的常见操作
  9. JS内存泄漏实例解析
  10. 七牛云存储,图片储存
  11. python创建线程_Python 创建线程的方法
  12. Java简单登陆界面实现
  13. verifycode.php,php验证码|php图片验证码|php image.verifyCode.class.php
  14. AD快捷键的设置及推荐
  15. Qt网络编程(1):QTcpSocket和QTcpServer的基本使用
  16. JAVA GUI同一个窗体切换面板JPanel以及获取JFrame方法的注意事项
  17. 土地购买[Usaco2008 Mar]
  18. 剪刀石头布java_java编写剪刀石头布游戏
  19. PentestBox中部分工具整理
  20. 【RT-Thread】 TinyUSB挂载成U盘和文件系统,基于STM32F405RG

热门文章

  1. 基于Win64的Masm64函数设计
  2. 【数据分析实战经验】预测真实员工离职率(涉及模型:随机森林、逻辑回归,数据量:28211,工具:python)
  3. C++ 推箱子小游戏
  4. 推出 2020 年图像匹配基准和挑战赛
  5. backtrack5 live cd启动时出现high-speed usb device停住不动解决方法
  6. 碲化铋纳米线合成步骤
  7. 统一的账号密码管理系统-信息安全课程设计
  8. 【工具】PPT插入高清图片保存后图片变模糊的解决方法
  9. 计算机研究生复试面试题目
  10. 一加6手机图片中的文字如何识别?