[Hadoop集群模式安装与配置全过程]红帽子RatHat6下hadoop集群模式安装(3个节点,master,slave1,slave2)
红帽子RatHat6下hadoop集群模式安装(3个节点,master,slave1,slave2)
一、学习目标:
使用红帽子RatHat6在虚拟机上搭建hadoop集群,包含3个节点,体验集群分布式。
二、软件需求:
三台虚拟机(这里使用VMware Workstation)、RatHat6版本的安装包
三、实验前提:
每台PC机已装有RatHat6系统,一台机命名为master作为namenode,另两台为slave1和slave2,作为datanode。具体配置如下。
用户名 |
Host-IP |
网关 |
HostName(互ping时的机器名) |
内存 |
硬盘 |
HDFS |
YARN |
对应大数据组件 |
备注 |
Master |
172.16.24.38 |
172.16.24.254 |
master |
2 |
40GB |
NameNode |
ResourcesManager |
集群主节点 |
|
Slave01 |
172.16.24.79 |
172.16.24.254 |
slave1 |
1 |
20GB |
DataNode |
NodeManager |
计算调度 |
|
Slave02 |
172.16.24.48 |
172.16.24.254 |
slave2 |
1 |
20GB |
DataNode |
NodeManager |
数据计算节点 |
四、Hadoop集群模式安装过程:
1 .用root用户设置主机名和IP地址分配(/etc/hosts)
先在master机器上操作后复制到另两台机上
笔记:修改系统文件时需要以root用户登陆
2.继续使用root用户创建一个hadoop账户并为其设置密码,专门负责操作与hadoop相关的业务。(图片以master机为例,另外两台机上做同样操作)
[命令] useradd hadoop
笔记:用root创建用户会自动创建宿主目录
该步骤情况:三台机器都用root创建了hadoop用户(并且已默认创建了hadoop账户的宿主目录)
[命令] passwd hadoop
笔记:刚创建的用户需要用root用户为其设置密码
该步骤情况:现在三台机器都用root设置了hadoop的密码
3.设置三台机器之间的免密码登陆:(使用hadoop用户)
3.1 在master机器上使用hadoop用户生成master机器节点的hadoop账户密钥对。
[命令]ssh-keygen –t rsa
可在~/.ssh下查看生成的密钥对id_rsa和di_rsa.pub
3.2继续在master机器上为slave1和slave2生成各自的密钥对。
[命令]
sshslave1 ssh-keygen –t rsa
sshslave2 ssh-keygen –t rsa
3.3 将所有的公钥文件汇总到master机器上的一个总的授权key文件authorized_keys中
[命令]
scphadoop@slave1:~/.ssh/id_rsa.pub ~/.ssh/slave1.pub
scphadoop@slave2:~/.ssh/id_rsa.pub ~/.ssh/slave2.pub
cat~/.ssh/*.pub > /.ssh/authorized_keys
(查看文件命令)cat ~/.ssh/authorized_keys
3.4出于安全性考虑,将这个授权key文件authorized_keys赋予600权限
[命令]chmod 600 .ssh/authorized_keys
3.5将这个将这个包含了所有互信机器认证authorized_keys认证文件复制到所有节点主机的~/.ssh/目录中,并进行验证互信。
[命令]
scp~/.ssh/authorized_keys hadoop@slave1:~/.ssh
scp~/.ssh/authorized_keys hadoop@slave2:~/.ssh
(测试免密码链接)
ssh slave1
ssh slave2
该步骤情况:现在三台机器已经可以免密码互相登陆
4.Java 的安装与配置
(这里使用版本为jdk1.8)
4.1创建统一管理java和hadoop 的父级目录,位于hadoop用户主目录下/home/hadoop
,如网上教程命名为chadoop
[命令]mkdir ~/chadoop
4.2 解压jdk安装包(之前已使用VMware Tools拉近master机器内)
[命令]
tar zxf jdk安装包名
(在chadoop中创建文件夹java放置jdk解压后的文件)
mkdir ~/chadoop/java
mv jdk解压后的文件名 ~/chadoop/java
4.3修改环境变量(~/.bash_profile)加入JAVA_HOME,CLASSPATH和PATH
使用vi编辑器进行修改,配置后使用 . ~/.bash_profile 立即生效。并使用java –version命令进行检测java是否安装成功.
[命令] vi ~/.bash_profile
[增加配置信息](由于参考教程同时也配置了hadoop_home的位置,这里也先配置也可安装hadoop后再做对该步骤的hadoop操作)
# JAVA&HADOOP-CONFIGURATION#
exportJAVA_HOME=~/chadoop/java/jdk1.8.0_45
exportCLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
exportHADOOP_HOME=~/chadoop/hadoop/hadoop-2.7.3
exportHADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
exportPATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
[命令]
. ~/.bash_profile
java –version
该步骤情况:现在master机器上已安装好jdk1.8版本。
5.Hadoop的安装与配置
(这里使用版本为hadoop2.7.3)
5.1解压hadoop安装包(同安装java操作一样)
5.2在chadoop文件夹内新建一个hadoop目录用于放置hadoop安装包解压后文件
[命令]
tar zxf hadoop安装包
mkdir ~/chadoop/hadoop
mv hadoop解压后文件 ~/chadoop/Hadoop
5.3创建hadoop相关的tmp目录和dfs目录(以及其下的name和data目录)
[命令]
mkdir~/chadoop/tmp
mkdir-p~/chadoop/dfs/name ~/chadoop/dfs/data
5.4为hadoop配置环境变量(~/.bash_profile)
这一步已在java配置环境变量时操作,具体见4.3.使用hadoop version进行验证hadoop是否安装成功
[命令] hadoop version
该步骤情况:master机器上已成功安装了hadoop2.7.3版本
6.修改hadoop内置文件,配置集群模式
涉及修改文件:core-site.xml,hdfs-site.xml, mapred-site.xml,yarn-site.xml,hadoop-env.sh, mapred-env.sh,yarn-env.sh 和 slaves(均位于$HADOOP_HOME下的/etc/hadoop文件夹内)
各文件配置如下:
(1)[core-site.xml配置]
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/home/hadoop/chadoop/tmp</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>//如下配置是读写sequence file 的 buffer size,可减少 I/O 次数。在大型的 Hadoop cluster,建议可设定为 65536 到 131072,默认值 4096.按照教程配置了131702
</property>
</configuration>
(2)[hdfs-site.xml配置]
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/hadoop/chadoop/dfs/name</value>
<description>namenode的目录位置</description>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/hadoop/chadoop/dfs/data</value>
<description>datanode的目录位置</description>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
<description>hdfs系统的副本数量</description>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:9001</value>
<description>备份namenode的http地址</description>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
<description>hdfs文件系统的webhdfs使能标致</description>
</property>
</configuration>
(3)[mapred-site.xml配置]
注意:mapred-site.xml需要先复制模板生成配置文件后修改内容
[命令]cp mapred-site.xml.templatemapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
<description>指明MapRreduce的调度框架为yarn</description>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
<description>知名MapReduce的作业历史地址</description>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
<description>指明MapReduce的作业历史web地址</description>
</property>
</configuration>
(4)[yarn-site.xml配置]
<configuration>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:18040</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:18030</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:18088</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:18025</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:18141</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
(5)[hadoop-env.sh配置]
[操作]加入JAVA_HOME位置
(6)[mapred-env.sh配置]
[操作]指明JAVA_HOME位置
(7)[yarn-env.sh配置]
[操作]加入JAVA_HOME位置
(8)[slaves配置]
[操作]加入两个节点的名称
7.将master主节点以上的配置复制到slave1、slave2节点
7.1复制环境变量文件并使用各节点对象进行环境变量生效
[命令]
scp~/.bash_profile hadoop@slave1:~/
scp~/.bash_profile hadoop@slave2:~/
ssh hadoop@slave1. ~/.bash_profile
ssh hadoop@slave2. ~/.bash_profile
7.2复制chadoop目录到slave1和slave2机器上
[命令]
scp -r chadoop/ hadoop@slave1:~
scp -r chadoop/ hadoop@slave2:~
8.在master主节点上格式化hdfs文件系统
[命令]hdfs namenode -format
9.关闭防火墙(现在主节点上使用root用户操作,关闭后再使用ssh命令进入另外2节点中关闭其余节点防火墙)
[命令]
service iptablesstop
chkconfig iptablesoff
ssh slave1 进入后操作与master机器一样
ssh slave2 进入后操作与master机器一样
10.在master机器上启动hadoop,并用jps检验hadoop进程(此时master主节点有4个ResourceManager,Jps, NameNode, SecondaryNamenode,slave1节点与slave2节点有3个NodeManager,DataNode, Jps)
[命令]
start-all.sh
jps
11.hadoop的停止
[命令]stop-all.sh
该步骤情况:到这里hadoop的基本安装与配置结束。hadoop集群已基本搭建完成。
12.增加内容
再次登陆时发现环境变量没有生效,于是将~/.bash_profile中的增加内容同时对~/.bashrc和/etc/profile都做了更改,复制到另外两台机器上。这里请注意修正。
[Hadoop集群模式安装与配置全过程]红帽子RatHat6下hadoop集群模式安装(3个节点,master,slave1,slave2)相关推荐
- 生产环境安装、配置、管理PostgreSQL14.5数据库集群。pgpool 4.3.3参数中文说明
1 生产环境安装.配置.管理PostgreSQL14.5 欢迎观看我发布的视频 "生产环境安装.配置.管理PostgreSQL14.5数据库集群" 数据库软件不是简单的安装上就好, ...
- Mac M1系统 miniconda安装、配置conda环境,及在conda环境中安装激活QIIME2
Mac M1系统 miniconda安装.配置conda环境,及在conda环境中安装激活QIIME2 1.适配版本的miniconda软件安装包下载(windows, MAC, LINUX) Min ...
- Wine 的安装和配置,以及wine下运行金山词霸和中文输入法!(转)
Wine 的安装和配置,以及wine下运行金山词霸和中文输入法!(转)[@more@] 提要:学习一个wine的安装和配置还是有必要,但如果运行金山词霸和输入法就没有太大的必要.因为现在linux中有 ...
- IIS的安装和配置全过程
http://www.fwvv.net/info/2008/01/10/20080110-55337.shtml 1.运行环境与软件要求 Windows 2000 以上 (不包括Windows XP ...
- 配置kiwi+syslog+MySQL_win7下KiWi Syslog服务器的安装与配置
今天就来聊聊日志服务器KiWi Syslog的安装与配置. 首先,所需文件有以下2个: 1.Kiwi_Syslog_Server_9.5.0.Eval.setup.exe[此版本只有14天寿命][Ki ...
- 环境部署(java安装和配置,Tomcat安装和配置)(tomcat下部署war包)
1,上传环境部署安装包到服务器上 2,解压安装包,并部署java # tar -xf jdk-8u201-linux-x64.tar.g # mkdir /usr/java # cp jdk1.8 ...
- mysql安装与配置的截图_windows下MySQL5.6版本安装及配置过程附有截图和详细说明...
随着MYSQL版本的更新以及电脑系统的变化,我们给大家整理了各种电脑环境下安装MYSQL的图解过程,希望我们整理的内容能够帮助到大家:mysql安装图解总结 https://www.jb51.net/ ...
- mac下安装与配置mysql数据库,Mac下MySQL的安装与配置
之前一直用的是云服务器,在服务器上装了一个MySQL,但是今天发现到期了,而且续费时发现之前的大学生优惠不能用了,可是明明到6月份,大学生才毕业啊,shit!!!所以没办法只能在自己电脑上装一个MyS ...
- 安装mysql8.0配置环境_Windows环境下MySQL 8.0 的安装、配置与卸载
软件版本 Windows:Windows10 MySQL:mysql-8.0.17-winx64.zip 安装步骤 1.配置环境变量 name:Path value:C:\Program Files\ ...
最新文章
- Jsoup实现Iteye自动登录
- 微信QQ聊天记录分析工具-微Q
- JavaScript版几种常见排序算法
- java操作excel文件之系列一:《读取excel文件的内容保存到数据库》
- 初中数学503个必考知识点_初中数学无非就这146个必考知识点,全摸透,轻松应对考试!...
- java 度量_Java度量方法调用率
- 软件技术PHp试卷,2014-2015软件技术学院AJAX试卷A
- Visual Studio各组件说明
- 最全面试题CSS(含答案)
- 5nm计算机cpu,芯片14nm、10nm、7nm、7nm、7nm、7nm有什么差别?
- MPLS 配置LDP本地会话实验 详解
- 网站首页html静态化,网站首页怎么静态化
- html+css制作简历
- java开发一款雷电游戏
- 玛格曼达 狂暴_我从狂暴听硅谷作家中学到的东西
- private static final long serialVersionUID=1L作用
- WMS系统条码作业项目实施经验浅谈
- React-mentions 库介绍
- JAVA高级开发工程师面试系列——RocketMQ
- VUE中实现打印功能插件—vue-easy-print
热门文章
- matplotlib之绘制三维图像
- 百度搜索打不开第二页_百度快速排名的最新方法篇
- 2021年资料员-通用基础(资料员)考试及资料员-通用基础(资料员)免费试题
- Esri官网如何申请试用版 ArcGIS Desktop?试用版过期怎么办?
- 上海宝付支招购物节不得不防的那些陷阱
- 【U8+】用友U8查询出库汇总表没有“计量单位”列
- HTML5吃豆人在画布移动制作,js+canvas实现动态吃豆人效果
- 无线路由器桥接的设置
- 英特尔中国开源技术委员会成立
- 西门子S1200PID恒温恒压供冷却水程序. 阀PID控制水温,与两台西门子V20变频器PID控制水压.包括程序和Eplan图纸