本文档介绍了如何设置和配置单节点Hadoop安装,以便您可以使用Hadoop MapReduce和Hadoop分布式文件系统(HDFS)快速执行简单的操作。

先决条件

支持平台

  • 支持GNU / Linux作为开发和生产平台。Hadoop已在具有2000个节点的GNU / Linux集群上进行了演示。

  • Windows也是受支持的平台,但是以下步骤仅适用于Linux。

必备软件

Linux所需的软件包括:

  1. 必须安装Java™。HadoopJavaVersions中描述了推荐的Java版本。

  2. 必须安装ssh并且sshd必须正在运行才能使用管理远程Hadoop守护程序的Hadoop脚本。

安装步骤

如果您的群集没有必需的软件,则需要安装它。

例如在CentOS Linux上:

[root@centos001 ~]# sudo yum install ssh -y
[root@centos001 ~]# sudo yum install rsync -y

注意:三台服务器必须是安装了jdk的(没有安装的小伙伴也不用慌张,请看我上一期文章)

下载和上传

要获得Hadoop发行版,请从其中一个Apache Download Mirrors下载最新的稳定版本。

  1. 创建software目录用于上传软件安装包。

[root@centos001 ~]# mkdir /opt/software

通过xftp工具将Hadoop发行版上传至服务器的 /opt/software/目录下。

准备启动Hadoop集群

解压缩下载的Hadoop发行版。在发行版中,编辑文件etc/hadoop/hadoop-env.sh来定义一些参数,如下所示:

[root@centos001 ~]# mkdir /usr/apps
[root@centos001 ~]# tar -zxvf /opt/software/hadoop-2.7.2.tar.gz -C /usr/apps/

查看是否解压完整

[root@hadoop001 software]# cd /usr/apps/
[root@hadoop001 apps]# ls
hadoop-2.7.2  jdk
[root@hadoop001 apps]# cd hadoop-2.7.2/
[root@hadoop001 hadoop-2.7.2]# ls
bin  include  libexec      NOTICE.txt  sbin
etc  lib      LICENSE.txt  README.txt  share

修改hadoop目录名

[root@hadoop001 apps]# mv /usr/apps/hadoop-2.7.2/ /usr/apps/hadoop

配置环境变量

[root@hadoop001 apps]# cd hadoop/
[root@hadoop001 hadoop]# pwd   #查看当前路径
/usr/apps/hadoop
[root@hadoop001 hadoop]# vi /etc/profile

#HADOOP_HOME#
export HADOOP_HOME=usr/apps/hadoop  #注意自己的路径
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

[root@hadoop001 hadoop]# source /etc/profile

验证hadoop

[root@hadoop001 hadoop]# hadoop version

hadoop配置

1. [root@hadoop001 /]# cd /usr/apps/hadoop/etc/hadoop/
2. [root@hadoop001 hadoop]# vi hadoop-env.sh(修改第25行)
    -- export JAVA_HOME=/usr/apps/jdk/   #注意自己的jdk路径,按Esc在set nu 回车可以显示序号


3. [root@hadoop001 hadoop]# vi yarn-env.sh(第23行,放开注释进行修改)
    -- export JAVA_HOME=/usr/apps/jdk/


4. [root@hadoop001 hadoop]#vi core-site.xml
    <configuration>
    <!--用于设置HDFS-->
            <property>
                    <name>fs.defaultFS</name>
                    <value>hdfs://hadoop001:9000</value> #注意自己的自己名
            </property>
            <property>
                    <name>hadoop.tmp.dir</name>
                    <value>/usr/apps/hadoop/tmp</value>
            </property>
    </configuration>


5. [root@hadoop001 hadoop]#vi hdfs-site.xml
    <configuration>
        <!-- 指定Hadoop 副本数量 -->
        <property>
            <name>dfs.replications</name>
            <value>3</value>
        </property>
        <!-- 指定 secondary namenode 的主机地址 -->
        <property>
            <name>dfs.namenode.secondary.http-address</name>
            <value>hadoop002:50090</value>
        </property>
    </configuration>


6.[root@hadoop001 hadoop]# mv mapred-site.xml.template mapred-site.xml

[root@hadoop001 hadoop]#vi mapred-site.xml(重命名)
    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
    </configuration>


7. [root@hadoop001 hadoop]#vi yarn-site.xml
    <configuration>
        <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>hadoop003</value>
            </property>
            <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
            </property>
    </configuration>


8.[root@hadoop001 hadoop]# vi slaves
    hadoop01
    hadoop02
    hadoop03

将配置好的,环境变量,jdk,hadoop复制给hadoop002和hadoop0003

[root@hadoop001 apps]# scp -r /usr/apps/jdk root@192.168.159.132:/usr/apps/

注意hadoop002要有apps这个目录,没有就用mkidr apps创建hadoop003同样

[root@hadoop001 apps]# scp -r /usr/apps/jdk root@192.168.159.133:/usr/apps/
[root@hadoop001 apps]# scp -r /usr/apps/hadoop/ root@192.168.159.133:/usr/apps/

[root@hadoop001 apps]# scp -r /etc/profile root@192.168.159.132:/etc/profile

[root@hadoop001 apps]# scp -r /etc/profile root@192.168.159.133:/etc/profile

注意:自己的ip和文件路径

注意查看是否复制成功

[root@hadoop002 apps]# source /etc/profile

[root@hadoopoo3 apps]# source /etc/profile

hadoop运行测试

先关闭防火墙

[root@hadoopoo3 /]# systemctl stop firewalld

[root@hadoopoo3 /]# systemctl disable firewalld

1. 格式化 HDFS(初次安装需要才执行)
hadoop namenode -format (第一台执行)

2.启动 Hadoop 守护进程
    -- 在第一台执行 start-dfs.sh
    -- 在第三台执行 start-yarn.sh

3.jps 命令检查Hadoop守护进程是否启动成功

[root@hadoopoo3 /]# jps
    -- 第一台守护进程有 
        Namenode,DataNode
        NodeManager
    -- 第二台守护进程有
        SecondaryNameNode,DataNode
        NodeManager
    -- 第三台守护进程有
        DataNode
        ResourceManager,NodeManager

4.运行测试 Hadoop 
    -- 在浏览器输入 192.168.xx.x:50070(第一台IP地址)


    -- 在浏览器输入 192.168.xx.x:8088(第三台IP地址)

5.在命令行执行 WordCount 案例
    -- hadoop fs -mkdir /input
    -- hadoop fs -put /etc/profile /input
    -- cd /opt/apps/hadoop/(自己的目录)
    -- bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /input/profile /output

7. mkdir: Cannot create directory /input. Name node is in safe mode.
        -- hadoop dfsadmin -safemode leave

8.关闭守护进程
    -- stop-dfs.sh(第一台执行)


    -- stop-yarn.sh(第三台执行)

注意事项:
    1. 如果第一步格式化 HDFS 失败,执行以下命令后重新格式化
        -- rm -rf /opt/apps/hadoop/tmp
    2. 如果第 3 步缺失守护进程,请重新执行第 2 步
    3. 如果第 4 步无法正常访问网址,请检查 Linux 防火墙是否关闭
        -- systemctl stop firewalld
        -- systemctl disable firewalld

这就完毕了,是不是很简单,有兴趣可以加QQ群:1011197972一起学习

Hadoop 三节点集群搭建相关推荐

  1. 01.三节点集群搭建--VM配置

    1.下载CentOS7 1.百度搜索centos–>2.点击centos官网连接–>3.点击DVD ISO–>4.点击http://ap.stykers.moe/centos/7.6 ...

  2. docker(十五):docker-swarm三节点集群搭建

    一.使用vagrant搭建三台centos7虚拟机 1.VagrantFile --------------------------- # -*- mode: ruby -*- # vi: set f ...

  3. hadoop分布式集群搭建

    hadoop集群搭建前的准备(一定要读):https://blog.51cto.com/14048416/2341450 hadoop分布式集群搭建: 1. 集群规划: 2.具体步骤: (1)上传安装 ...

  4. etcd mysql集群_Etcd单节点扩容为三节点集群

    Etcd单节点扩容为三节点集群 参考文档 http://www.cnblogs.com/breg/p/5728237.html 开始环境是单节点,存储数据一段时间后发现需要集群高可用环境,幸亏etcd ...

  5. Hadoop分布式集群搭建以及案例运行-fs操作

    Hadoop分布式集群搭建案例步骤(也可以叫分布式文件系统) 一:创建分布式集群环境 二:设置静态ip以及主机名与映射关系 三:创建用户.配置SSH无密登录 四:子机dn操作 五:配置主机jdk.ha ...

  6. Hadoop/Spark集群搭建图文全攻略

    Hadoop/Spark集群搭建图文全攻略 一.安装VMware 二.创建Linux虚拟机 三.CentOS-7安装 四.Linux系统环境配置 五.其他配置 六.虚拟机克隆 七.jdk安装 八.Zo ...

  7. 【转】Hadoop分布式集群搭建hadoop2.6+Ubuntu16.04

    https://www.cnblogs.com/caiyisen/p/7373512.html 前段时间搭建Hadoop分布式集群,踩了不少坑,网上很多资料都写得不够详细,对于新手来说搭建起来会遇到很 ...

  8. Hadoop分布式集群搭建hadoop2.6+Ubuntu16.04

    前段时间搭建Hadoop分布式集群,踩了不少坑,网上很多资料都写得不够详细,对于新手来说搭建起来会遇到很多问题.以下是自己根据搭建Hadoop分布式集群的经验希望给新手一些帮助.当然,建议先把HDFS ...

  9. Hadoop分布式集群搭建完全详细教程

    Hadoop分布式集群环境搭建步骤如下 实验环境: 系统:win7 内存:8G(因要开虚拟机,内存建议不低于8G) 硬盘:建议固态 虚拟机:VMware 12 Linux:Centos 7 jdk1. ...

最新文章

  1. Spring boot注册三大组件
  2. HBase 名称空间namespace的创建/建表/删除
  3. 设计模式(三):观察者模式与发布/订阅模式区别
  4. 注册中心—组件—Eureka
  5. [转]张孟苏考上的不是大学
  6. 欧拉函数的性质及其证明
  7. 本页由试用版打印控件lodop6.2.6输出_Visual Basic 6.0 Sirk 迷你版
  8. 拼图java监听器,Android 简单的实现滑块拼图验证码功能
  9. 【转载】DXUT进阶
  10. python,tensorflow,CNN实现mnist数据集的训练与验证正确率
  11. 23. 考虑用排序的vector替代关联容器
  12. python3.7怎么安装的_怎么安装python3.7:python 3.7入门教程
  13. linux如何安装php,linux下怎么安装php
  14. Mac小白——如何查看网速
  15. WORD如何使得公式居中,公式编号右对齐?
  16. EasyUI TreeGrid各行调整上下位置
  17. Oracle 时间差计算
  18. 自己编一个大乐透选号器
  19. React 全家桶入门教程 01
  20. libvlc_media_add_option 函数中的参数设置

热门文章

  1. LPC1768 延时函数
  2. 唯众职教学生实训系统
  3. springboot启动不打印日志信息_SpringBoot启动信息没有打印到日志文件中,怎么回事?...
  4. 大数据——Java I/O输入输出处理(二)
  5. 海量监控数据处理之道(一):APM指标计算优化
  6. Myhdl与Iverilog在windows系统中无法正常运行,myhdl.vpi生成不顺利
  7. 岗位竞聘机制如何引入?
  8. 乘法运算加法表示,单片机软件乘法运算
  9. 怎么解决win10电脑桌面图标右下角有黑色方块的问题!轻松修复桌面图标显示异常!【解决方案分享】
  10. 国产开源,GitHub 标星 47000+ ,百度飞桨从打响第一枪到战役突围