Hadoop快速入门——入门考试(伪分布式60+编码25+执行jar15)

目录

一、伪分布式搭建(60分)

1、创建1台Linux虚拟机,并打开对应的网络连接(VMnet8)(5分)

2、通过xshell正确连接Linux虚拟机(5分)

3、在【/opt/】文件夹下上传【java】以及【hadoop】压缩包(5分)

4、正确解压【java】以及【hadoop】的压缩文件(5分)

5、修改【hadoop-2.7.3】以及【jdk1.8.0_112】文件夹名称为【hadoop】以及【jdk】(5分)

6、在【/etc/profile.d/】编写【hadoop-eco.sh】脚本文件(5分)

7、在正确的位置替换提供的【Hadoop】伪分布式的6个文件。(5分)

8、创建ssh免密登录(5分)

9、创建生成存储文件夹(5分)

10、执行【hadoop-eco.sh】脚本文件(5分)

11、初始化并启动hdfs(5分)

12、关闭防火墙,并通过浏览器正确访问【ip:50070】

二、编辑demo测试jar包(25分)

13、创建【idea】项目(5分)

14、修改maven配置路径以及maven库地址,并引入【hadoop】(5分)

15、在【src的java】下创建【com.item.test】包,以及【MapAction】【ReduceAction】【Action】的类文件(5分)

16、完成【MapAction】【ReduceAction】【Action】文件编码(5分)

17、导出jar包(5分)

三、执行jar(15分)

18、进入到【/opt/hadoop/share/hadoop/mapreduce】文件夹下并引入【demo.jar】包(5分)

19、在服务器下创建【/info】文件夹,并添加测试文件【info.txt】(5分)

20、执行并查看结果(5分)


一、伪分布式搭建(60分)

1、创建1台Linux虚拟机,并打开对应的网络连接(VMnet8)(5分)

需要创建并启动成功图片,以及打开网络图片。

2、通过xshell正确连接Linux虚拟机(5分)

链接成功截图,即可得分。

3、在【/opt/】文件夹下上传【java】以及【hadoop】压缩包(5分)

文件位置:C:\java\jar

通过【xftp】上传到【/opt/】下

4、正确解压【java】以及【hadoop】的压缩文件(5分)

tar -zxvf jdk-8u112-linux-x64.tar.gz
tar -zxvf hadoop-2.7.3.tar.gz

通过【ll】命令查询效果

5、修改【hadoop-2.7.3】以及【jdk1.8.0_112】文件夹名称为【hadoop】以及【jdk】(5分)

mv jdk1.8.0_112 jdk
mv hadoop-2.7.3 hadoop

6、在【/etc/profile.d/】编写【hadoop-eco.sh】脚本文件(5分)

vi /etc/profile.d/hadoop-eco.sh
JAVA_HOME=/opt/jdk
PATH=$JAVA_HOME/bin:$PATH
HADOOP_HOME=/opt/hadoop
PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

通过【cat】 查询编辑结果:

7、在正确的位置替换提供的【Hadoop】伪分布式的6个文件。(5分)

8、创建ssh免密登录(5分)

生成rsa的image

ssh-keygen -t rsa

拷贝到本地

ssh-copy-id -i root@localhost

登录测试

ssh root@localhost

退出测试

exit

9、创建生成存储文件夹(5分)

创建【/opt/hadoop-record/】文件夹,并在【/opt/hadoop-record/】文件夹下创建【name】【secondary】【data】【tmp】四个文件夹。

mkdir -p /opt/hadoop-record/name
mkdir -p /opt/hadoop-record/secondary
mkdir -p /opt/hadoop-record/data
mkdir -p /opt/hadoop-record/tmp
ls /opt/hadoop-record/

10、执行【hadoop-eco.sh】脚本文件(5分)

source /etc/profile.d/hadoop-eco.sh
java -version

通过查看【java】版本以及【Hadoop】版本确认配置成功。

11、初始化并启动hdfs(5分)

hdfs namenode -format
start-all.sh
jps

初始化成功图片

启动并查询6个服务截图

12、关闭防火墙,并通过浏览器正确访问【ip:50070】

systemctl stop firewalld

二、编辑demo测试jar包(25分)

13、创建【idea】项目(5分)

选择【maven】项目,点击【next】

添加项目名称后,点击【finish】

14、修改maven配置路径以及maven库地址,并引入【hadoop】(5分)

添加【hadoop-client】的【2.7.3】版本

    <dependencies><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>2.7.3</version></dependency></dependencies>

15、在【src的java】下创建【com.item.test】包,以及【MapAction】【ReduceAction】【Action】的类文件(5分)

16、完成【MapAction】【ReduceAction】【Action】文件编码(5分)

【MapAction】

package com.item.test;import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;import java.io.IOException;public class MapAction extends Mapper<LongWritable, Text, Text, LongWritable> {@Overrideprotected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {char[] split = value.toString().toCharArray();for (char s : split) {context.write(new Text(s+""), new LongWritable(1));}}
}

【ReduceAction】

package com.item.test;import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;import java.io.IOException;public class ReduceAction extends Reducer<Text, LongWritable, Text, LongWritable> {@Overrideprotected void reduce(Text key, Iterable<LongWritable> values, Context context) throws IOException, InterruptedException {long count = 0;for (LongWritable value : values) {count += value.get();}context.write(key, new LongWritable(count));}
}

【Action】

package com.item.test;import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;import java.io.IOException;public class Action {public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {Configuration conf = new Configuration();Job job = Job.getInstance(conf);job.setJarByClass(Action.class);job.setMapperClass(MapAction.class);job.setReducerClass(ReduceAction.class);job.setMapOutputKeyClass(Text.class);job.setMapOutputValueClass(LongWritable.class);job.setOutputKeyClass(Text.class);job.setOutputValueClass(LongWritable.class);FileInputFormat.setInputPaths(job,new Path("/info/info.txt"));FileOutputFormat.setOutputPath(job,new Path("/infos"));boolean b = job.waitForCompletion(true);System.exit(b?0:1);}
}

17、导出jar包(5分)

将【demo.jar】包复制出来,准备上传到服务器。

三、执行jar(15分)

18、进入到【/opt/hadoop/share/hadoop/mapreduce】文件夹下并引入【demo.jar】包(5分)

19、在服务器下创建【/info】文件夹,并添加测试文件【info.txt】(5分)

cd /opt/hadoop/share/hadoop/mapreduce
echo "Accept that this is your starting point.Instead of placing judgements on it,see the real,positive value that’s already yours.You cannot change where your past priorities and choices have brought you.Yet you can make use of the wisdom you’ve earned to create a future that fulfils your most treasured dreams.
> 相信此刻就是你的起点。无需再判断,看到你所具备的真正意义上的价值。你过去认为重要的事和以前做过的选择给你带来了什么都是无法改变 的。然而你可以充分利用你的智慧去创造未来,实现你最珍爱的梦想。" >info.txt
hadoop fs -mkdir /info
hadoop fs -put info.txt /info/info.txt
hadoop fs -cat /info/info.txt

20、执行并查看结果(5分)

hadoop jar demo.jar com/item/test/Action /info/info.txt /infos
hadoop fs -cat /infos/part-r-00000

满分。

Hadoop快速入门——入门考试(伪分布式60+编码25+执行jar15)相关推荐

  1. Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

    给力星 追逐内心的平和 首页 笔记 搜藏 代码 音乐 关于 Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04 2014-08-09 (updated: 2016 ...

  2. 第02讲:Hadoop 发行版选型和伪分布式平台的构建 2020/05/02 高俊峰(南非蚂蚁)

    本课时主要介绍 Hadoop 发行版选型以及伪分布式平台的构建. Hadoop 发行版介绍与选择 到目前为止,你应该初步了解了大数据以及 Hadoop 相关的概念了.本课时我将介绍 Hadoop 如何 ...

  3. Hadoop模式介绍-独立,伪分布式,分布式

    了解了什么是Hadoop之后,让我们在单机上启动Hadoop: 这篇文章包含在ubuntu上安装Hadoop的说明. 这是Hadoop安装的快速分步教程. 在这里,您将获得以独立模式 (单节点集群)安 ...

  4. 在Ubutun 14.04 Desktop LTS上部署Hadoop 2.7.1(伪分布式)

    1.安装Ubutun 14.04 Desktop LTS 下载ISO文件,ubuntu-14.04.1-desktop-amd64.iso. 在Virtualbox或者VmWare中新建虚拟机,将IS ...

  5. Hadoop集群之HDFS伪分布式安装 HA(二)

    1.首先看看HA的对象是谁? 主要解决的是NameNode的HA 2.Datanode不需要HA吗? DataNode的HA是NameNode的checksize机制(主动复制)来解决的 3.Name ...

  6. Hadoop安装教程_单机/伪分布式配置_CentOS6.4/Hadoop2.6.0

    本 Hadoop 教程由厦门大学数据库实验室出品,转载请注明.本教程适合于在 CentOS 6.x 系统中安装原生 Hadoop 2,适用于Hadoop 2.7.1, Hadoop 2.6.0 等版本 ...

  7. hadoop hbase java_Hadoop、Hbase伪分布式安装

    环境 本文介绍Hadoop.Hbase的伪分布式安装. 操作系统: Centos7 Hadoop: 2.7.3 Hbase: 1.2.3 Hadoop安装 JAVA_HOME环境变量配置 由于Hbas ...

  8. Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu16.04

    转自http://dblab.xmu.edu.cn/blog/install-hadoop/ 创建hadoop用户 创建了可以登陆的 hadoop 用户,并使用 /bin/bash 作为 shell, ...

  9. Hadoop环境搭建-单机、伪分布式、完全分布式

    目录 一.单机安装 二.伪分布式环境搭建 配置SSH免密登录 三.完全分布式环境搭建 设置免密 修改配置文件 本文的所有配置文件,除注释部分都可直接复制粘贴.因为本文的配置文件的语言语法采用的是HTM ...

最新文章

  1. java实现文件名过滤器接口_Java使用文件过滤器FileFilter、FilenameFilter搜索文件
  2. 计算机应用主要学PS,全国计算机一级Photoshop应用试题及答案
  3. 解决: -bash: docker-compose: command not found、linux 安装 docker-compose
  4. 《团队作业第三、第四周》五小福团队作业--Scrum 冲刺阶段--Day6
  5. ansible+ssh自动化运维
  6. Android中文URL乱码问题 解决
  7. 《人类简史》二、认知革命——上帝之手的秘密
  8. 详解经典进程同步问题(生产者消费者问题/哲学家进餐问题/读者写者问题)_OS
  9. windows 11 锁屏壁纸路径
  10. From表单邮箱后缀提示
  11. 丝路传说架设服务器维护,《丝路传说》一键整合服务端+GM工具+视频架设教程...
  12. Java——打印九宫格的算法思路(任意维奇数行方阵)
  13. 关于LocalDateTime的全局返回时间带“T“的时间格式处理
  14. 一周侃 | 周末随笔
  15. 2.css字体 文本属性
  16. 基于深度学习的语音分类识别(附代码)
  17. Google analytics是什么,有什么作用
  18. Android屏幕监视方法,Android 关于手机屏幕的那些事
  19. 里恩临床试验项目管理系统(RH-CTMS)介绍
  20. Ubuntu安装nvidia显卡驱动经验和注意事项(成功率高)

热门文章

  1. MVC详解:mvc是什么?为什么要用MVC?MVC工作原理以及MVC优缺点
  2. 怎么上永久免费的GPU与TPU服务器colab
  3. XML的解析方法(如何解析XML)
  4. Can only install one of: topthink/think-installer[v2.0.0, v1.0.12].
  5. 发送邮件提示Sender address rejected: not owned by user错误
  6. 项目二任务六 任务七 任务八
  7. Set集合及源码分析
  8. 多元线性回归分析理论详解及SPSS结果分析
  9. 手把手带你学习微信小程序 —— 十(icon 标签【微信默认标签】)
  10. 07.RabbitMQ处理幂等性