Hadoop 2.x 完全分布式HA集群环境搭建

目录

Hadoop 2.0 环境搭建

前提:环境准备

第一步:修改hadoop-env.sh配置文件,配置好JAVA_HOME环境变量

第二步:修改hdfs-site.xml配置文件,增加如下配置

第三步:修改core-site.xml 配置文件

第四步:下载zookeeper,复制并修改zoo_sample.cfg 为 zoo.cfg文件

第五步:在Hadoop中配置slaves文件

第六步:将hadoop-2.5.2.tar.gz上传到node2、node3、node4节点/home目录下并解压

第七步:进入node2、node3、node4节点下/home/hadoop-2.5.2/sbin目录启动 journalnode

第八步:进入node1节点下/home/hadoop-2.5.2/bin格式化namenode

第九步:进入/home/hadoop-2.5.2/sbin 启动node1节点下的namenode,

第十步:进入node2(未被格式化的namenode)节点下/home/hadoop-2.5.2/bin进行格式化并启动该namenode

第十一步:进入namenode所在的节点上任意一个的/home/hadoop-2.5.2/bin格式化zkFC,

第十二步:进入node1的/home/hadoop-2.5.2/sbin停启服务

全过程总结(先后顺序)

MapReduce 配置

第一步:/home/hadoop-2.5.2/etc/hadoop配置 mapred-site.xml

第二步:/home/hadoop-2.5.2/etc/hadoop配置yarn-site.xml

第三步启动:


前提:环境准备

  1. 上传hadoop-2.5.2到/home目录下
  2. 配置好jdk环境
  3. 整体布局
  NN DN ZK ZKFC JN RM DM
node1 1   1 1   1  
node2 1 1 1 1 1   1
node3   1 1   1   1
node4   1     1   1

第一步:修改hadoop-env.sh配置文件,配置好JAVA_HOME环境变量

export JAVA_HOME=/home/java/jdk1.8.0_191

第二步:修改hdfs-site.xml配置文件,增加如下配置

<configuration><property><name>dfs.nameservices</name><value>mycluster</value></property>      <property><name>dfs.ha.namenodes.mycluster</name><value>nn1,nn2</value></property><property><name>dfs.namenode.rpc-address.mycluster.nn1</name><value>node1:8020</value></property><property><name>dfs.namenode.rpc-address.mycluster.nn2</name><value>node2:8020</value></property><property><name>dfs.namenode.http-address.mycluster.nn1</name><value>node1:50070</value></property><property><name>dfs.namenode.http-address.mycluster.nn2</name><value>node2:50070</value></property><property><name>dfs.namenode.shared.edits.dir</name><value>qjournal://node2:8485;node3:8485;node4:8485/mycluster</value></property><property><name>dfs.client.failover.proxy.provider.mycluster</name><value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value></property><property><name>dfs.ha.fencing.methods</name><value>sshfence</value></property><property><name>dfs.ha.fencing.ssh.private-key-files</name><value>/root/.ssh/id_rsa</value></property><property><name>dfs.journalnode.edits.dir</name><value>/opt/jn/data</value></property><property><name>dfs.ha.automatic-failover.enabled</name><value>true</value></property></configuration>

第三步:修改core-site.xml 配置文件

<configuration><property><name>fs.defaultFS</name><value>hdfs://mycluster</value></property><property><name>ha.zookeeper.quorum</name><value>node1:2181,node2:2181,node3.com:2181</value></property><property><name>hadoop.tmp.dir</name><value>/opt/hadoop-2.5.2</value></property>

第四步:下载zookeeper,复制并修改zoo_sample.cfg 为 zoo.cfg文件

dataDir=/opt/zookeeperserver.1=node1:2888:3888
server.2=node2:2888:3888
server.3=node3:2888:3888

创建文件夹/opt/zookeeper
vi myid ,内容为1,其余两台服务器节点相同目录分别对应指定2、3

scp -r zookeeper/ root@node2:/opt/
scp -r zookeeper/ root@node3:/opt/

将zookeeper拷贝到另外两个服务器节点

scp -r zookeeper-3.4.6 root@node2:/home/
scp -r zookeeper-3.4.6 root@node3:/home/

编辑/etc/profile文件添加zookeeper环境变量

export PATH=$PATH:/home/zookeeper-3.4.6/bin

source /etc/profile 文件使配置生效

source /etc/profile

拷贝配置文件到其余两个节点

scp /etc/profile root@node2:/etc/
scp /etc/profile root@node2:/etc/

进入/home/zookeeper-3.4.6/bin分别启动zookeeper

zkServer.sh start

第五步:在Hadoop中配置slaves文件

node2
node3
node4

第六步:将hadoop-2.5.2.tar.gz上传到node2、node3、node4节点/home目录下并解压

将node1 上的/home/hadoop-2.5.2/etc/hadoop配置文件拷贝到node2、node3、node4上

scp ./* root@node2:/home/hadoop-2.5.2/etc/hadoop/
scp ./* root@node3:/home/hadoop-2.5.2/etc/hadoop/
scp ./* root@node4:/home/hadoop-2.5.2/etc/hadoop/

第七步:进入node2、node3、node4节点下/home/hadoop-2.5.2/sbin目录启动 journalnode

./hadoop-daemon.sh start journalnode

第八步:进入node1节点下/home/hadoop-2.5.2/bin格式化namenode

./hdfs namenode -format

第九步:进入/home/hadoop-2.5.2/sbin 启动node1节点下的namenode,

./hadoop-daemon.sh start namenode

第十步:进入node2(未被格式化的namenode)节点下/home/hadoop-2.5.2/bin进行格式化并启动该namenode

./hdfs namenode -bootstrapStandby

第十一步:进入namenode所在的节点上任意一个的/home/hadoop-2.5.2/bin格式化zkFC,

./hdfs zkfc -formatZK

第十二步:进入node1的/home/hadoop-2.5.2/sbin停启服务

./stop-dfs.sh./start-dfs.sh

全过程总结(先后顺序)

1.core-site.xml
2.hdfs-site.xml


11.全面启动:start-dfs.sh

WEB管理页面效果

MapReduce 配置

第一步:/home/hadoop-2.5.2/etc/hadoop配置 mapred-site.xml

<property><name>mapreduce.framework.name</name><value>yarn</value>
</property>

第二步:/home/hadoop-2.5.2/etc/hadoop配置yarn-site.xml

<property><name>yarn.resourcemanager.hostname</name><value>node1</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name><value>org.apache.hadoop.mapred.ShuffleHandler</value></property>

第三步启动:

./start-yarn.sh或者与HDFS一起启动./start-all.sh

Web管理页面效果:

Hadoop 2.x 完全分布式HA集群环境搭建相关推荐

  1. Redis Cluster高可用(HA)集群环境搭建详细步骤

    1.为什么要有集群 由于Redis主从复制架构每个数据库都要保存整个集群中的所有数据,容易形成木桶效应,所以Redis3.0之后的版本添加特性就是集群(Cluster) 2.Redis集群架构说明 架 ...

  2. (超详细)基于Zookeeper的Hadoop HA集群的搭建

    基于Zookeeper的Hadoop HA集群的搭建 JunLeon--go big or go home 前言: 高可用(high availability,HA)指的是若当前工作中的机器宕机了,系 ...

  3. 深入浅出学大数据(五)Hadoop再探讨High Availability(HA)集群搭建及YARN原理介绍

      大家好,我是不温卜火,昵称来源于成语-不温不火,本意是希望自己性情温和.作为一名互联网行业的小白,博主写博客一方面是为了记录自己的学习过程,另一方面是总结自己所犯的错误希望能够帮助到很多和自己一样 ...

  4. 王家林的“云计算分布式大数据Hadoop实战高手之路---从零开始”的第五讲Hadoop图文训练课程:解决典型Hadoop分布式集群环境搭建问题

    王家林的"云计算分布式大数据Hadoop实战高手之路---从零开始"的第五讲Hadoop图文训练课程:解决典型Hadoop分布式集群环境搭建问题 参考文章: (1)王家林的&quo ...

  5. 大数据 -- Hadoop集群环境搭建

    首先我们来认识一下HDFS, HDFS(Hadoop Distributed File System )Hadoop分布式文件系统.它其实是将一个大文件分成若干块保存在不同服务器的多个节点中.通过联网 ...

  6. 大数据介绍、集群环境搭建、Hadoop介绍、HDFS入门介绍

    大数据介绍.集群环境搭建.Hadoop介绍.HDFS入门介绍 文章目录 大数据介绍.集群环境搭建.Hadoop介绍.HDFS入门介绍 1.课前资料 2.课程整体介绍 3.大数据介绍 3.1 什么是大数 ...

  7. 【Hadoop生态圈】1.Hadoop入门教程及集群环境搭建

    文章目录 1.简介 2.环境准备 3.安装hadoop 3.修改Hadoop配置文件 3.1.hadoop-env.sh配置 3.2.core-site.xml配置 3.3.hdfs-site.xml ...

  8. hadoop集群环境搭建准备工作

    一定要注意hadoop和linux系统的位数一定要相同,就是说如果hadoop是32位的,linux系统也一定要安装32位的. 准备工作: 1 首先在VMware中建立6台虚拟机(配置默认即可).这是 ...

  9. 大数据第一天 Hadoop01-入门集群环境搭建

    Hadoop01-入门&集群环境搭建 今日内容 ​ Hadoop的介绍 ​ 集群环境搭建准备工作 ​ Linux命令和Shell脚本增强 ​ 集群环境搭建 大数据概述 ​ 大数据: 就是对海量 ...

最新文章

  1. 服务器日志显示乱码,CentosOS 6.5 服务器 控制台输出中文乱码,日志打印中文也乱码...
  2. 通过memcached来实现对tomcat集群中Session的共享策略 .
  3. SP1026 FAVDICE - Favorite Dice
  4. 很多优秀的软件公司和开发者为什么愿意开源和共享?
  5. JVM调优:常见垃圾回收器组合
  6. 《古剑奇谭2》详细测评心得
  7. MySQL 5之存储过程
  8. WPF中实现图片文件转换成Visual对象,Viewport3D对象转换成图片
  9. 搜狗快速排名软件到底哪家更强大?
  10. word转PDF图片很糊or word自带公式编辑器公式自动编号转PDF括号没了
  11. Head First Java.第二版.中文完整高清版
  12. c语言公历转农历程序,用c如何编写 农历转换成公历
  13. 程序员转正述职报告_公司程序员试用期转正工作总结
  14. matlab倒谱法基音周期,语音学习笔记1------matlab实现自相关函数法基音周期提取...
  15. win10 c 语言 全屏,win10所有的视频都不能全屏了,重装了好几次都是这样 ,求助 - Microsoft Community...
  16. linux平台potplayer,Daum PotPlayer不安全库加载漏洞
  17. c语言中常量分为那两种,C语言中的常量和字面值
  18. 摄像头 虚拟服务器页面,虚拟云服务器能调用本地摄像头
  19. 小程序获取oppenid时返回40125或者40029
  20. Windows 2003全面优化

热门文章

  1. php在线客服系统源码_在线客服系统物流行业解决方案
  2. 支付宝支付回调异常_支付宝崩了是怎么回事 支付宝崩了部分用户使用异常现已恢复...
  3. docker镜像启动后端口号是多少_14,Docker容器必知必会,你会了吗?
  4. qt可视化数据展板_Qt 2D数据可视化之QCharts
  5. 小程序云开发搜索功能的实现正则_几行代码实现小程序云开发提现功能
  6. python处理数据库_python操作数据库
  7. instance-based与model-based 区别
  8. html5 水波式按钮_css3+jQuery实现按钮水波纹效果
  9. linux flush 保证 磁盘,linux cache介绍及控制
  10. python实现将文件内容按照某一列内容的大小值重新排序_Python数据分析入门教程(四):数值操作...