hadoop配置文件_Hadoop分布式集群
Hadoop分布式集群的详细介绍,首先Hadoop的搭建有三种方式,单机版适合开发调试;伪分布式版,适合模拟集群学习;完全分布式,生产使用的模式。这篇文件介绍如何搭建完全分布式的hadoop集群,一个主节点,三个数据节点为例来讲解。
基础环境
环境准备
1、软件版本
四台服务器配置,系统:centos6.5、内存:1G(视自己配置而定)、硬盘:20G(视自己配置而定)
四台服务器分配的IP地址:
192.168.10.131
192.168.10.132
192.168.10.133
192.168.10.134
规划:131用作主节点用作master,其它三台为数据节点132、133、134用作salve1~3
jdk和生成保持一致使用1.8版本
hadoop使用2.7.3版本
2、host配置和主机名(四台)
修改四台服务器的hosts文件
vim /etc/hosts
192.168.10.131 master
192.168.10.132 slave1
192.168.10.133 slave2
192.168.10.134 slave3
分别斯塔服务器的主机名:HOSTNAME,master为例说明
vi /etc/sysconfig/network
HOSTNAME=master
执行reboot后生效,完成之后依次修改其它salve服务器为:slave1~3。
3、服务器安装jdk(四台)
建议使用yum安装jdk,也可以自行下载安装
yum -y install java-1.8.0-openjdk*
配置环境变量,修改配置文件vim/etc/profile
export JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk.x86_64
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
使用souce命令让立刻生效
source /etc/profile
免密登陆
一、首先关闭四台服务器的防火墙和SELINUX
查看防火墙状态
service iptables status
关闭防火墙
service iptables stop
chkconfig iptables off
关闭SELINUX后,需要重启服务器
—关闭SELINUX
# vim /etc/selinux/config
—注释掉
#SELINUX=enforcing
#SELINUXTYPE=targeted
—添加
SELINUX=disabled
二、免密码登录本机
下面以配置master本机无密码登录为例进行讲解,用户需参照下面步骤完成salve1~3三台子节点机器的本机无密码登录;
1)生产秘钥
ssh-keygen -t rsa
2)将公钥追加到”authorized_keys”文件
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
3)赋予权限
chmod 600 .ssh/authorized_keys
4)验证本机能无密码访问
ssh master
最后,依次配置salve1~3无密码访问
二、master本机无密码登录slave1、slave2、slave3,以master无密码登录slave1为例进行讲解:
1)登录slave1,复制master服务器的公钥”id_rsa.pub”到slave1服务器的”root”目录下。
scp root@master:/root/.ssh/id_rsa.pub /root/
2)将master的公钥(id_rsa.pub)追加到slave1的authorized_keys中
cat id_rsa.pub >> .ssh/authorized_keys
rm -rf id_rsa.pub
3)在master上面测试
ssh slave1
三、配置slave1~slave3本机无密码登录master
下面以slave1无密码登录master为例进行讲解,用户需参照下面步骤完成slave2~slave3无密码登录master。
1)登录master,复制slave1服务器的公钥”id_rsa.pub”到master服务器的”/root/”目录下。
scp root@slave1:/root/.ssh/id_rsa.pub /root/
2)将slave1的公钥(id_rsa.pub)追加到master的authorized_keys中。
cat id_rsa.pub >> .ssh/authorized_keys
rm -rf id_rsa.pub //删除id_rsa.pub
3)在slave1上面测试
ssh master
依次配置slave2、slave3
到此主从的无密登录已经完成了。
Hadoop环境搭建
配置master的hadoop环境
1、master上解压缩安装包及创建基本目录
#下载
wget http://apache.claz.org/hadoop/common/hadoop-2.7.3/hadoop-2.7.
#解压
tar -xzvf hadoop-2.7.3.tar.gz -C /usr/local
#重命名
mv hadoop-2.7.3 hadoop
2、配置master的hadoop环境变量
1)配置环境变量,修改配置文件vi/etc/profile
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
使得hadoop命令在当前终端立即生效
source /etc/profile
下面配置,文件都在:/usr/local/hadoop/etc/hadoop路径下
2、配置core-site.xml
修改Hadoop核心配置文件/usr/local/hadoop/etc/hadoop/core-site.xml,通过fs.default.name指定NameNode的IP地址和端口号,通过hadoop.tmp.dir指定hadoop数据存储的临时文件夹。
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/hadoop/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
</configuration>
特别注意:如没有配置hadoop.tmp.dir参数,此时系统默认的临时目录为:/tmp/hadoo-hadoop。而这个目录在每次重启后都会被删除,必须重新执行format才行,否则会出错。
3、配置hdfs-site.xml:
修改HDFS核心配置文件/usr/local/hadoop/etc/hadoop/hdfs-site.xml,通过dfs.replication指定HDFS的备份因子为3,通过dfs.name.dir指定namenode节点的文件存储目录,通过dfs.data.dir指定datanode节点的文件存储目录。
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/usr/local/hadoop/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/usr/local/hadoop/hdfs/data</value>
</property>
</configuration>
4、配置mapred-site.xml
拷贝mapred-site.xml.template为mapred-site.xml,在进行修改
cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml
vim /usr/local/hadoop/etc/hadoop/mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>http://master:9000</value>
</property>
</configuration>
5、配置yarn-site.xml
<configuration>
<!– Site specific YARN configuration properties –>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
</configuration>
6、配置masters文件
修改/usr/local/hadoop/etc/hadoop/masters文件,该文件指定namenode节点所在的服务器机器。删除localhost,添加namenode节点的主机名master;不建议使用IP地址,因为IP地址可能会变化,但是主机名一般不会变化。
vi /usr/local/hadoop/etc/hadoop/masters
##内容
master
7、配置slaves文件(Master主机特有)
修改/usr/local/hadoop/etc/hadoop/slaves文件,该文件指定哪些服务器节点是datanode节点。删除locahost,添加所有datanode节点的主机名,如下所示。
vi /usr/local/hadoop/etc/hadoop/slaves
## 内容
slave1
slave2
slave3
配置hadoop-slave的hadoop环境
下面以配置slave1的hadoop为例进行演示,用户需参照以下步骤完成其他slave2~3服务器的配置。
1)复制hadoop到slave1节点
scp -r /usr/local/hadoop slave1:/usr/local/
登录slave1服务器,删除slaves内容
rm -rf /usr/local/hadoop/etc/hadoop/slaves
2)配置环境变量
vi /etc/profile
## 内容
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
使得hadoop命令在当前终端立即生效;
source /etc/profile
依次配置其它slave服务
启动集群
1、格式化HDFS文件系统
进入master的~/hadoop目录,执行以下操作
bin/hadoop namenode -format
格式化namenode,第一次启动服务前执行的操作,以后不需要执行。
2、然后启动hadoop:
sbin/start-all.sh
3、使用jps命令查看运行情况
#master 执行 jps查看运行情况
25928 SecondaryNameNode
25742 NameNode
26387 Jps
26078 ResourceManager
#slave 执行 jps查看运行情况
24002 NodeManager
23899 DataNode
24179 Jps
4、命令查看Hadoop集群的状态
通过简单的jps命令虽然可以查看HDFS文件管理系统、MapReduce服务是否启动成功,但是无法查看到Hadoop整个集群的运行状态。我们可以通过hadoopdfsadmin-report进行查看。用该命令可以快速定位出哪些节点挂掉了,HDFS的容量以及使用了多少,以及每个节点的硬盘使用情况。
hadoop dfsadmin -report
输出结果:
Configured Capacity: 50108030976 (46.67 GB)
Present Capacity: 41877471232 (39.00 GB)
DFS Remaining: 41877385216 (39.00 GB)
DFS Used: 86016 (84 KB)
DFS Used%: 0.00%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
Missing blocks (with replication factor 1): 0
……
5、hadoop重启
sbin/stop-all.sh
sbin/start-all.sh
错误
在搭建完成启动的时候,发生过两个错误:
1、xxx:Error:JAVA_HOMEisnotsetandcouldnotbefound
这个错误意思没有找到jdk的环境变量,需要在hadoop-env.sh配置。
vi /usr/local/hadoop/etc/hadoop/hadoop-env.sh
## 配置项
export JAVA_HOME=/usr/lib/jvm/jre-1.7.0-openjdk.x86_64
2、Theauthenticityofhost‘0.0.0.0(0.0.0.0)’can’tbeestablished.
解决方案关闭SELINUX
— 关闭SELINUX
# vim /etc/selinux/config
— 注释掉
#SELINUX=enforcing
#SELINUXTYPE=targeted
— 添加
SELINUX=disabled
hadoop配置文件_Hadoop分布式集群相关推荐
- 手把手教你搭建Hadoop生态系统伪分布式集群
Hello,我是 Alex 007,一个热爱计算机编程和硬件设计的小白,为啥是007呢?因为叫 Alex 的人太多了,再加上每天007的生活,Alex 007就诞生了. 手把手教你搭建Hadoop生态 ...
- hadoop搭建伪分布式集群(centos7+hadoop-3.1.1)
原文地址:https://www.cnblogs.com/zhengna/p/9316424.html Hadoop三种安装模式 搭建伪分布式集群准备条件 第一部分 安装前部署 1.查看虚拟机版本 2 ...
- Hadoop搭建完全分布式集群
Hadoop搭建完全分布式集群 搭建准备 配置ssh和编写一个分发shell脚本 java和hadoop 运行测试 最近公司事情不是很多,趁此机会,学习一下大数据的内容,正好公司之后也要使用大数据方面 ...
- Hadoop单机/伪分布式集群搭建(新手向)
此文已由作者朱笑笑授权网易云社区发布. 欢迎访问网易云社区,了解更多网易技术产品运营经验. 本文主要参照官网的安装步骤实现了Hadoop伪分布式集群的搭建,希望能够为初识Hadoop的小伙伴带来借鉴意 ...
- 记Hadoop HA高可用性分布式集群搭建过程
为完成毕业设计中并行算法测试,在学习后,自己在虚拟机搭建了一个基于Hadoop的分布式集群,在这里做个记录,菜鸟首次写博客,已深夜,下面直接进入主题: 规划与说明 在hadoop集群中通常由两个Nam ...
- CentOS 7下配置hadoop 2.8 分布式集群
Hadoop是一个由Apache基金会所开发的分布式系统基础架构,实现分布式文件系统HDFS,用于存储大数据集,以及可以以流的形式访问(streaming access)文件系统中的数据.Hadoop ...
- Windows上安装HADOOP单机伪分布式集群
2019独角兽企业重金招聘Python工程师标准>>> 1.准备HADOOP运行环境 下载解压并拷贝到Cygwin的用户主目录 http://archive.apache.org/d ...
- 第3章 Hadoop 2.x分布式集群搭建
目录 3.1 配置各节点SSH无密钥登录 1.将各节点的秘钥加入到同一个授权文件中 2.拷贝授权文件到各个节点 3.测试无秘钥登录 3.2 搭建Hadoop集群 1.上传Hadoop并解压 2.配置H ...
- 学习搭建Hadoop+HBase+ZooKeeper分布式集群环境
一.环境配置 由于集群至少需要三台服务器,我就拿上次做的MongoDB Master, Slave, Arbiter环境来做Hadoop集群.服务器还是ibmcloud 免费提供的.其中Arbiter ...
最新文章
- 如何选择PDU电源配套机柜?
- python——类和对象之__dict__属性的使用
- 在Map 3D显示管理器中更改当前地图的名字
- Python02期预科课程笔记索引
- 信息学奥赛一本通 2022:【例4.7】最小n值
- 计算机视觉基础——本质矩阵与基本矩阵(Essential and Fundamental Matrices)
- WinForm中的NotifyIcon控件的使用
- springboot 集成J2Cache
- 蓝桥杯青少年创意编程大赛题解:STEMA
- 二元最佳前缀码_贪心-最优前缀码
- 【Kay】MySQL必会常用函数
- 数组的应用和面向对象的开始6
- IOS实现点击软键盘的Next/Return按钮或者空白处后自动隐藏键盘
- 转载:做正确的事情,等着被开除(Do the right thing, Wait to get fired)
- 【NanoPi T2】 6.uboot gmac网卡驱动(2) - 寄存器介绍
- 100个替代昂贵商业软件的开源应用/100 Open Source Replacements for Expensive Applications
- JVM内存与垃圾回收系列:程序计数器
- 计算机网络原理 [第一章] 概述
- oracle 整倍数,Linux x86主机运行天数是24.8的倍数都有可能引发Oracle bug及解决方法...
- ESP8266-NodeMCU (1) 开发板介绍
热门文章
- Python3 找不到库
- Android优化方案之--Fragment的懒加载实现
- 【转】记使用Kali linux 2.0的一些坑
- C#的百度地图开发(一)发起HTTP请求
- 如何自定义一个datatable
- hdu 2046 骨牌铺方格
- 2018年广西计算机一级,关于2018年上半年广西壮族自治区全国计算机等级考试报名工作的通知...
- learn python the hard way 习题6~10总结
- 洛谷3871 [TJOI2010]中位数 维护队列的中位数
- CentOS7.3下部署Rsyslog+LogAnalyzer+MySQL中央日志服务器