搭建Hadoop的HA高可用架构(超详细步骤+已验证)
一、集群的规划
Zookeeper集群:
192.168.182.12 (bigdata12)192.168.182.13 (bigdata13)192.168.182.14 (bigdata14)
Hadoop集群:
192.168.182.12 (bigdata12) NameNode1主节点 ResourceManager1主节点 Journalnode192.168.182.13 (bigdata13) NameNode2备用主节点 ResourceManager2备用主节点 Journalnode192.168.182.14 (bigdata14) DataNode1 NodeManager1192.168.182.15 (bigdata15) DataNode2 NodeManager2
二、准备工作
1、安装JDK:每台机器都需要安装
我这里使用的是jdk-8u152-linux-x64.tar.gz安装包
解压JDK:
tar -zxvf jdk-8u144-linux-x64.tar.gz -C ~/training
2、配置环境变量:
1)配置java环境变量:
vi ~/.bash_profile export JAVA_HOME=/root/training/jdk1.8.0_144 export PATH=$JAVA_HOME/bin:$PATH
2)生效环境变量:
source ~/.bash_profile
3)验证是否安装成功:
java -version
3、配置IP地址与主机名的映射关系 原因:方便SSH调用 方便Ping通
vi /etc/hosts
输入:
192.168.182.13 bigdata13 192.168.182.14 bigdata14192.168.182.15 bigdata15
4、配置免密码登录
1)在每台机器上产生公钥和私钥
ssh-keygen -t rsa
含义:通过ssh协议采用非对称加密算法的rsa算法生成一组密钥对:公钥和私钥
2)在每台机器上将自己的公钥复制给其他机器
注:以下四个命令需要在每台机器上都运行一遍
ssh-copy-id -i .ssh/id_rsa.pub root@bigdata12 ssh-copy-id -i .ssh/id_rsa.pub root@bigdata13 ssh-copy-id -i .ssh/id_rsa.pub root@bigdata14 ssh-copy-id -i .ssh/id_rsa.pub root@bigdata15
三、安装Zookeeper集群(在bigdata12上安装)
在主节点(bigdata12)上安装和配置ZooKeeper
我这里使用的是zookeeper-3.4.10.tar.gz安装
1、解压Zookeeper:
tar -zxvf zookeeper-3.4.10.tar.gz -C ~/training
2、配置和生效环境变量:
export ZOOKEEPER_HOME=/root/training/zookeeper-3.4.10 export PATH=$ZOOKEEPER_HOME/bin:$PATH source ~/.bash_profile
3、修改zoo.cfg配置文件:
vi /root/training/zookeeper-3.4.10/conf/zoo.cfg
修改:
dataDir=/root/training/zookeeper-3.4.10/tmp
在最后一行添加:
server.1=bigdata12:2888:3888 server.2=bigdata13:2888:3888 server.3=bigdata14:2888:3888
4、修改myid配置文件
在/root/training/zookeeper-3.4.10/tmp目录下创建一个myid的空文件:
mkdir /root/training/zookeeper-3.4.10/tmp/myid echo 1 > /root/training/zookeeper-3.4.10/tmp/myid
5、将配置好的zookeeper拷贝到其他节点,同时修改各自的myid文件
scp -r /root/training/zookeeper-3.4.10/ bigdata13:/root/training scp -r /root/training/zookeeper-3.4.10/ bigdata14:/root/training
进入bigdata13和bigdata14两台机器中,找到myid文件,将其中的1分别修改为2和3:
vi myid
在bigdata13中输入:2在bigdata14中输入:3
四、安装Hadoop集群(在bigdata12上安装)
1、修改hadoop-env.sh
export JAVA_HOME=/root/training/jdk1.8.0_144
2、修改core-site.xml
<configuration> <!-- 指定hdfs的nameservice为ns1 --> <property> <name>fs.defaultFS</name> <value>hdfs://ns1</value> </property><!-- 指定HDFS数据存放路径,默认存放在linux的/tmp目录中 --> <property> <name>hadoop.tmp.dir</name> <value>/root/training/hadoop-2.7.3/tmp</value> </property><!-- 指定zookeeper的地址 --> <property> <name>ha.zookeeper.quorum</name> <value>bigdata12:2181,bigdata13:2181,bigdata14:2181</value> </property> </configuration>
3、修改hdfs-site.xml(配置这个nameservice中有几个namenode)
<configuration> <!--指定hdfs的nameservice为ns1,需要和core-site.xml中的保持一致 --> <property> <name>dfs.nameservices</name> <value>ns1</value> </property> <!-- ns1下面有两个NameNode,分别是nn1,nn2 --> <property> <name>dfs.ha.namenodes.ns1</name> <value>nn1,nn2</value> </property> <!-- nn1的RPC通信地址 --> <property> <name>dfs.namenode.rpc-address.ns1.nn1</name> <value>bigdata12:9000</value> </property> <!-- nn1的http通信地址 --> <property> <name>dfs.namenode.http-address.ns1.nn1</name> <value>bigdata12:50070</value> </property> <!-- nn2的RPC通信地址 --> <property> <name>dfs.namenode.rpc-address.ns1.nn2</name> <value>bigdata13:9000</value> </property> <!-- nn2的http通信地址 --> <property> <name>dfs.namenode.http-address.ns1.nn2</name> <value>bigdata13:50070</value> </property> <!-- 指定NameNode的日志在JournalNode上的存放位置 --> <property> <name>dfs.namenode.shared.edits.dir</name> <value>qjournal://bigdata12:8485;bigdata13:8485;/ns1</value> </property> <!-- 指定JournalNode在本地磁盘存放数据的位置 --> <property> <name>dfs.journalnode.edits.dir</name> <value>/root/training/hadoop-2.7.3/journal</value> </property> <!-- 开启NameNode失败自动切换 --> <property> <name>dfs.ha.automatic-failover.enabled</name> <value>true</value> </property> <!-- 配置失败自动切换实现方式 --> <property> <name>dfs.client.failover.proxy.provider.ns1</name> <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value> </property> <!-- 配置隔离机制方法,多个机制用换行分割,即每个机制暂用一行--> <property> <name>dfs.ha.fencing.methods</name> <value> sshfence shell(/bin/true) </value> </property><!-- 使用sshfence隔离机制时需要ssh免登陆 --> <property> <name>dfs.ha.fencing.ssh.private-key-files</name> <value>/root/.ssh/id_rsa</value> </property><!-- 配置sshfence隔离机制超时时间 --> <property> <name>dfs.ha.fencing.ssh.connect-timeout</name> <value>30000</value> </property> </configuration>
4、修改mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
配置Yarn的HA
5、修改yarn-site.xml
<configuration> <!-- 开启RM高可靠 --> <property> <name>yarn.resourcemanager.ha.enabled</name> <value>true</value> </property><!-- 指定RM的cluster id --> <property> <name>yarn.resourcemanager.cluster-id</name> <value>yrc</value> </property><!-- 指定RM的名字 --> <property> <name>yarn.resourcemanager.ha.rm-ids</name> <value>rm1,rm2</value> </property><!-- 分别指定RM的地址 --> <property> <name>yarn.resourcemanager.hostname.rm1</name> <value>bigdata12</value> </property> <property> <name>yarn.resourcemanager.hostname.rm2</name> <value>bigdata13</value> </property><!-- 指定zk集群地址 --> <property> <name>yarn.resourcemanager.zk-address</name> <value>bigdata12:2181,bigdata13:2181,bigdata14:2181</value> </property><property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
6、修改slaves 从节点的地址
bigdata14 bigdata15
7、将配置好的hadoop拷贝到其他节点
scp -r /root/training/hadoop-2.7.3/ root@bigdata13:/root/training/ scp -r /root/training/hadoop-2.7.3/ root@bigdata14:/root/training/ scp -r /root/training/hadoop-2.7.3/ root@bigdata15:/root/training/
五、启动Zookeeper集群
在每一台机器上输入:
zkServer.sh start
六、启动journalnode
在bigdata12和bigdata13两台节点上启动journalnode节点:
hadoop-daemon.sh start journalnode
七、格式化HDFS和Zookeeper(在bigdata12上执行)
格式化HDFS:
hdfs namenode -format
将/root/training/hadoop-2.7.3/tmp拷贝到bigdata13的/root/training/hadoop-2.7.3/tmp下
scp -r dfs/ root@bigdata13:/root/training/hadoop-2.7.3/tmp
格式化zookeeper:
hdfs zkfc -formatZK
日志:INFO ha.ActiveStandbyElector: Successfully created /hadoop-ha/ns1 in ZK.
以上日志表明在Zookeeper的文件系统中创建了/hadoop-ha/ns1的子目录用于保存Namenode的结构信息
八、启动Hadoop集群(在bigdata12上执行)
启动Hadoop集群的命令:
start-all.sh
日志:
Starting namenodes on [bigdata12 bigdata13] bigdata12: starting namenode, logging to /root/training/hadoop-2.4.1/logs/hadoop-root-namenode-hadoop113.out bigdata13: starting namenode, logging to /root/training/hadoop-2.4.1/logs/hadoop-root-namenode-hadoop112.out bigdata14: starting datanode, logging to /root/training/hadoop-2.4.1/logs/hadoop-root-datanode-hadoop115.out bigdata15: starting datanode, logging to /root/training/hadoop-2.4.1/logs/hadoop-root-datanode-hadoop114.out bigdata13: starting zkfc, logging to /root/training/hadoop-2.7.3/logs/hadoop-root-zkfc- bigdata13.out bigdata12: starting zkfc, logging to /root/training/hadoop-2.7.3/logs/hadoop-root-zkfc-bigdata12.out
在bigdata13上手动启动ResourceManager作为Yarn的备用主节点:
yarn-daemon.sh start resourcemanager
至此,Hadoop集群的HA架构就已经搭建成功。
版权声明:本文为博主原创文章, 未经博主允许不得转载。http://www.cnblogs.com/lijinze-tsinghua/
搭建Hadoop的HA高可用架构(超详细步骤+已验证)相关推荐
- Hadoop之HA高可用
Hadoop之HA高可用 1.集群规划 2.前提 3.免密配置 4.修改hadoop配置文件 4.1.hdfs高可用 1.修改core-site.xml 添加如下配置文件 2.修改hdfs-site. ...
- 「架构技术专题」如何构建网站高可用架构(详细分析篇)?(6)
网站的可用性(Avaliability)描述网站可有效访问的特性. 1.网站可用性的度量与考核 网站不可用时间(故障时间)=故障修复时间点-故障发现(报告)时间点 网站年度不可用时间=(1-网站不可用 ...
- hadoop的HA高可用配置(没有搞完)
hadoop的HA主要是两部分,一部分是namenode的备份,一部分是datanode备份. namenode和datanode一般尽量不在一个节点上, 这样namenode挂掉一个,还会有另外一个 ...
- keepalive+nginx实现负载均衡高可用_超详细的LVS+keepalived+nginx实现高性能高可用负载均衡集群教程...
概述 前面已经介绍了前两部分内容,下面主要介绍在nginx服务器方面的配置和测试整个集群是否可用. 在realserver端配置VIP 1.两台nginx服务器都要执行下面脚本: #vi /etc/r ...
- 【Hadoop】HA高可用搭建保姆级教程(大二学长的万字笔记)
知识目录 一.写在前面
- Hadoop 3.1.2(HA)+Zookeeper3.4.13+Hbase1.4.9(HA)+Hive2.3.4+Spark2.4.0(HA)高可用集群搭建
目录 目录 1.前言 1.1.什么是 Hadoop? 1.1.1.什么是 YARN? 1.2.什么是 Zookeeper? 1.3.什么是 Hbase? 1.4.什么是 Hive 1.5.什么是 Sp ...
- Hadoop的HA机制原理解析,与HA高可用集群环境搭建
2019独角兽企业重金招聘Python工程师标准>>> Hadoop的HA工作机制示意图 下面我们开始搭建这一套高可用集群环境 hadoop2.0已经发布了稳定版本了,增加了很多特性 ...
- Hadoop HA 高可用集群搭建
Hadoop HA 高可用集群搭建 一.首先配置集群信息 1 vi /etc/hosts 二.安装zookeeper 1.解压至/usr/hadoop/下 1 tar -zxvf zookeeper- ...
- Hadoop HA高可用集群搭建(Hadoop+Zookeeper+HBase)
一.服务器环境 主机名 IP 用户名 密码 安装目录 master 192.168.142.124 root xxx /usr/hadoop-2.6.5/ slave1 192.168.142.125 ...
最新文章
- c++静态变量的生存期
- 方立勋_30天掌握JavaWeb_数据库表设计
- python教学视频r_R Tutorial
- CURL 模拟post和get请求
- 删除某文件以外的文件
- fedora22有时不能启动
- IDC:2017年医疗行业IT花费将达336.5亿
- 《SiamFC++:Towards Robust and Accurate Visual Tracking with Target Estimation Guidelines》论文笔记
- 强化学习Reinforcement Learning概念理解篇(一)
- 松灵学院 | Scout mini 仿真指南
- React通过后台图片路径,打包下载图片
- IntelliJ IDEA的安装及插件下载
- abap视图字段限制_创建表维护视图(SE54)
- mysql导入数据时 USING BTREE 错误解决办法
- 解决 ImportError: cannot import name ‘_C‘ from ‘detectron2‘
- HDU 2340 Obfuscation(dp)
- 现在有很多第三方的SDK来做直播,那么我们改选择哪一种?
- 计算机知识中Q是啥意思,物理电学中Q和q分别代表什么意思,初中物理电学的所有知识点,要全面!...
- Verilog HDL 语法学习笔记
- linux系统reales,基于uCLinux系统的IEEE1394设备驱动程序的编程研究与实现
热门文章
- Springboot之actuator配置不当漏洞RCE(jolokia)
- 内网渗透,横向移动总结(mimikatz域控)
- 12. OD-XOFTSPY监控系统软件,通过windows API进行破解(双重验证,聪明的加密师)
- 14-Clothes衣服
- Eclipse的PyDev插件安装及解决安装后找不到的问题
- Servlet实现文件上传
- 《专门替中国人写的英语语法》(四)
- 处理wordpress上传中文名附件乱码问题
- (转)Android属性设置android:noHistory=true
- window-运行perl脚本(搭建health-check环境)