第一关 配置JavaJDK

  • 下载JDK

下载网址:http://www.o\fracle.com/technetwork/java/javase/downloads/jdk8-download-2133151.html

educoder中已经下载好,所以这一步忽略。

  • 解压

1.创建文件夹/app

mkdir /app

2.切换到/opt目录,查看压缩包

cd /opt

ll

3.解压JDK

tar -zxvf jdk-8u171-linux-x64.tar.gz

4.等待解压完成,将JDK移动到/app目录下

mv jdk1.8.0_171/ /app

可以切换到/app目录下查看解压好的文件夹

cd /app

ll

  • 配置环境变量

1.输入下面的命令,编辑配置文件

vim /etc/profile

2.在文件末尾输入:

#先按i进入编辑状态,再输入下面的代码

JAVA_HOME=/app/jdk1.8.0_171
CLASSPATH=.:$JAVA_HOME/lib/tools.jar
PATH=$JAVA_HOME/bin:$PATH

export JAVA_HOME CLASSPATH PATH

3.保存并退出

#先按Esc退出编辑状态,再输入下面的代码

:wq

4.输入下面的代码使刚才配置的文件生效

source /etc/profile

  • 测试

测试一下环境变量是否配置成功

java -version

出现如下界面代表配置成功


第二关 Hadoop安装与伪分布式集群搭建

  • 下载Hadoop

在官网下载http://hadoop.apache.org/

educoder已经下载好,切换到目录/opt目录查看:

cd /opt

ll

解压文件:

tar -zxvf hadoop-3.1.0.tar.gz -C /app

切换到/app目录:

cd /app

修改hadoop文件夹的名字

mv hadoop-3.1.0/ hadoop3.1

  • 配置Hadoop环境

1.设置SSH免密登录

首先输入下面的代码:

ssh-keygen -t rsa -P ''

!!!接下来直接输入回车(生成密钥对:id_rsa和id_rsa.pub,默认存储在/home/hadoop/.ssh目录下)

id_rsa.pub追加到授权的key里面去:

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

然后修改权限:

chmod 600 ~/.ssh/authorized_keys

启用RSA认证(如果提示权限不足在下面的语句前加上sudo):

vim /etc/ssh/sshd_config

修改SSH配置:

RSAAuthentication yes # 启用 RSA 认证

PubkeyAuthentication yes # 启用公钥私钥配对认证方式

AuthorizedKeysFile %h/.ssh/authorized_keys # 公钥文件路径

!!!先按esc,再输入:

:wq

退出并保存。

重启SSH(在自己的虚拟机中可以重启,在educoder中不用重启,重启就断开连接了)

service ssh restart

2.Hadoop配置文件

首先切换到Hadoop目录下:

cd /app/hadoop3.1/etc/hadoop

 hadoop-env.sh配置:

首先进入文件:

vim hadoop-env.sh

按i,光标滑到最底下,插入代码:

export JAVA_HOME=/app/jdk1.8.0_171

按esc,输入:wq

 yarn-env.sh文件配置

首先进入文件:

vim yarn-env.sh

按i,光标滑到最底下,插入代码:

export JAVA_HOME=/app/jdk1.8.0_171

按esc,输入:wq

core-site.xml文件配置:

首先进入文件:

vim core-site.xml

按i,找到两个<configuration>,在里面插入代码:

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value>

<description>HDFS的URI,文件系统://namenode标识:端口号</description>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/hadoop/tmp</value>

<description>namenode上本地的hadoop临时文件夹</description>

</property>

按esc,输入:wq

        hdfs-site.xml文件配置

首先进入文件:

vim hdfs-site.xml

按i,找到两个<configuration>,在里面插入代码:

<property>

<name>dfs.name.dir</name>

<value>/usr/hadoop/hdfs/name</value>

<description>namenode上存储hdfs名字空间元数据 </description>

</property>

<property>

<name>dfs.data.dir</name>

<value>/usr/hadoop/hdfs/data</value>

<description>datanode上数据块的物理存储位置</description>

</property>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

按esc,输入:wq

mapred-site.xml文件配置

首先进入文件:

vim mapred-site.xml

按i,找到两个<configuration>,在里面插入代码:

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

按esc,输入:wq

 yarn-site.xml文件配置

首先进入文件:

vim yarn-site.xml

按i,找到两个<configuration>,在里面插入代码:

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>192.168.2.10:8099</value>

<description>这个地址是mr管理界面的</description>

</property>

按esc,输入:wq

3.创建文件夹

/usr/hadoop/目录下建立tmphdfs/namehdfs/data目录:

mkdir /usr/hadoop

mkdir /usr/hadoop/tmp

mkdir /usr/hadoop/hdfs

mkdir /usr/hadoop/hdfs/data

mkdir /usr/hadoop/hdfs/name

4.将Hadoop添加到环境变量中:

vim /etc/profile

在文件末尾插入下面的代码:

#set Hadoop Environment
export HADOOP_HOME=/app/hadoop3.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

最后使修改生效:

source /etc/profile

  • 验证

1.格式化

hadoop namenode -format

出现如下界面代表成功:

2. 启动Hadoop

用户现在还不能启动Hadoop,需要设置一些东西

切换到/hadoop3.1/sbin路径下:

cd /app/hadoop3.1/sbin

编辑start-dfs.sh文件:

vim start-dfs.sh

按i,在文件顶部添加以下参数:

HDFS_DATANODE_USER=root

HADOOP_SECURE_DN_USER=hdfs

HDFS_NAMENODE_USER=root

HDFS_SECONDARYNAMENODE_USER=root

按Esc,输入:wq,保存并退出。

编辑stop-dfs.sh文件:

vim stop-dfs.sh

按i,在文件顶部添加以下参数:

HDFS_DATANODE_USER=root

HADOOP_SECURE_DN_USER=hdfs

HDFS_NAMENODE_USER=root

HDFS_SECONDARYNAMENODE_USER=root

按Esc,输入:wq,保存并退出。

编辑start-yarn.sh文件:

vim start-yarn.sh

按i,在文件顶部添加以下参数:

YARN_RESOURCEMANAGER_USER=root

HADOOP_SECURE_DN_USER=yarn

YARN_NODEMANAGER_USER=root

按Esc,输入:wq,保存并退出。

编辑stop-yarn.sh文件:

vim stop-yarn.sh

按i,​​​​​​​在文件顶部添加以下参数:

YARN_RESOURCEMANAGER_USER=root

HADOOP_SECURE_DN_USER=yarn

YARN_NODEMANAGER_USER=root

按Esc,输入:wq,保存并退出。

启动start-dfs.sh:

start-dfs.sh

输入jps:

jps

出现以下界面表示启动成功:


第三关 HDFS系统初体验

  • 编程要求

在HDFS系统的根目录下创建task文件夹,在本地创建一个名为task.txt的文件,输入:hello educoder至该文件中,最后将该文件上传至HDFS系统的/task目录。

tips:在本地操作正常输入命令即可,在HDFS系统中操作就在命令前加上hadoop fs -

  • 开始编程

1.启动Hadoop:

start-dfs.sh

2.在Hadoop系统中创建/task文件夹:

hadoop fs -mkdir /task

3.查看Hadoop系统中文件:

hadoop fs -ls /

4.在本地创建task.txt文件:

touch task.txt

5.编辑task.txt文件:

vim task.txt

6.按i开始编辑,输入下面的句子:

hello educoder

按Esc,输入:wq保存并退出文件

7.将task.txt上传至HDFS的/task文件夹。

hadoop fs -put task.txt /task

8.查看HDFS /task文件夹中的task.txt文件

hadoop fs -cat /task/task.txt

显示hello educoder 表示成功。

2.1 Hadoop环境搭建相关推荐

  1. Hadoop环境搭建教学(二)完全分布式集群搭建;

    Hadoop环境搭建教学(一)运行环境,集群规划介绍: 文章目录 安装三台 CentOS 7系统 一.X-Shell的准备工作 二.基本工具安装 三.关闭防火墙 四.修改Host文件 五.3.4.4 ...

  2. Hadoop环境搭建教学(一)运行环境,集群规划介绍;

    文章目录 前言 一.Hadoop的三种运行环境 二.集群规划 三.需要的基本软件安装 下期见 前言 Hadoop的运行环境可以是在Windows上,也可以在linux上,但在Windows上运行效率很 ...

  3. Hadoop环境搭建(二)CentOS7的下载与安装

    Hadoop环境搭建(一) VMware Workstation安装 与 网络配置 1. CentOS7的下载 https://wiki.centos.org/Download 2. CentOS7安 ...

  4. GitChat·大数据 | 史上最详细的Hadoop环境搭建

    GitChat 作者:鸣宇淳 原文: 史上最详细的Hadoop环境搭建 关注公众号:GitChat 技术杂谈,一本正经的讲技术 [不要错过文末彩蛋] 前言 Hadoop在大数据技术体系中的地位至关重要 ...

  5. 【菜鸟窝】Hadoop生态系统、Hadoop虚拟机环境准备、Hadoop环境搭建(含安装包和教程)

    hadoop环境搭建视频:https://www.cniao5.com/course/lessons/10244 1.1Hadoop简介 1.1.1Hadoop的诞生 Hadoop是由Apache L ...

  6. hadoop环境搭建(详解)

    hadoop 环境搭建 引言: 随着人工智能和大数据的热潮的到来,大数据变得越来越火了,坏蛋哥的信念就是致力于大数据的发展和进步,希望能为大数据的发展和推广尽一份绵薄之力.如果要做大数据,那么大数据相 ...

  7. Spark Hadoop 环境搭建http://www.jianshu.com/p/5b1eafdf34a9

    Spark Hadoop 环境搭建 链接地址:http://www.jianshu.com/p/5b1eafdf34a9 来源:简书 博文内容与结构: 1.介绍了搭建大数据框架的文件和步骤; 2.包括 ...

  8. Hadoop环境搭建之zookeeper安装

    Hadoop环境搭建 一.预备知识 1.大数据导论 1.1 大数据概念 大数据(big data),指无法在一定时间范围内用常规软件工具进行捕捉.管理和处理的数据集合,是需要新处理模式才能具有更强的决 ...

  9. Hadoop+hive+flask+echarts大数据可视化项目之系统数据整合和hadoop环境搭建

    Hadoop+hive+flask+echarts大数据可视化项目(二) --------------系统数据整合和hadoop环境搭建---------------- 关注Hadoop+Hive+F ...

  10. Hadoop环境搭建及常见问题解决(保姆级教程)

    Hadoop环境搭建及常见问题解决 零.资源准备 一.环境准备 1. 安装虚拟机 2. 环境准备 1) 创建新用户xiaobai 2) 安装ssh-server 3) 上传相关资源 [4)] 使用pu ...

最新文章

  1. supervisor 守护php,laravel队列之Supervisor守护进程(centos篇)
  2. 200kb以上图片储存
  3. open一个页面并关闭父页(小技巧)
  4. 上海python培训班-上海哪家python培训班比较靠谱?
  5. C++反汇编代码分析
  6. 机房漏电产生的危害及安全隐患解决方案
  7. linux awk详解
  8. pycharm安装scrapy失败_Scrapy ——环境搭配与一个简单的例子
  9. oracle日常函数应用,oracle日常 常用函数与脚本
  10. struct和typedef struct区别
  11. 打印机怎么扫描到电脑_【柯美C360扫描怎么用教程】打印机怎么扫描
  12. 人工智能 量子力学 时间简史 山海经 三体
  13. TreeView的checked事件
  14. 【实验记录】Fashion-Mnist分类实验记录
  15. 【hdu 4859】海岸线(图论--网络流最小割)
  16. 学游戏设计好就业吗?有“钱”途吗?
  17. 你怎么看欧阳娜娜空降阿里p8?
  18. FROM_GLC的介绍与数据下载教程
  19. 操作系统:七种进程调度算法
  20. 九歌·湘夫人 先秦 · 屈原

热门文章

  1. Kodak Preps 8 for Mac中文破解版永久激活教程
  2. 雅虎团队经验:网站页面性能优化的 34条
  3. CrystalReports水晶报表开发中遇到的问题
  4. 求n的阶乘的算法框图_VB求阶乘1/1!+1/2!+1/3!+.....+1/n!之和问题解决
  5. 斯特灵公式求阶乘c语言,斯特林公式求阶乘
  6. Java编程之从零开始学Java——初始java
  7. 计算机软件毕业设计项目源码大全
  8. 格雷码编码器 c语言,格雷码编码器功能实现
  9. 大四学生发明文言文编程语言,设计思路清奇
  10. 原生js预览ofd文件