Hadoop完全分布式集群——Hadoop 配置
前面已完成VMware虚拟机安装与配置(参考前一篇Hadoop完全分布式集群——VMware虚拟机安装与配置_夏雨和阳阳的博客-CSDN博客),下面将进行Hadoop 配置。
一、slave1、slave2节点配置修改
slave1、slave2节点都需要进行以下操作:
1.开启虚拟机,输入命令:
[root@slave1 ~]#ip addr
[root@slave2 ~]#ip addr
2.修改slave1、slave2虚拟机的IP
[root@slave1 ~]#vi /etc/sysconfig/network-scripts/ifcfg-ens33
[root@slave12 ~]#vi /etc/sysconfig/network-scripts/ifcfg-ens33
修改slave1为IPADDR=192.168.128.131,修改slave2为IPADDR=192.168.128.132。
3.修改slave1、slave2虚拟机的主机名
[root@slave1 ~]#vi /etc/hostname
[root@slave2 ~]#vi /etc/hostname
主节点为 master,子节点分别为 slave1、slave2。
4.slave1、slave2虚拟机重启网络服务
[root@slave1 ~]#service network restart
[root@slave2 ~]#service network restart
5.查看slave1、slave2虚拟机 IP、主机名是否修改
[root@slave1 ~]#ip addr
[root@slave2 ~]#ip addr
6.reboot 重启slave1、slave2虚拟机。
root@slave1 ~]#reboot
root@slave2 ~]#reboot
二、 配置master、slave1、slave2虚拟机无密码登录
1.配置 IP 映射(master、slave1、slave2每个节点都需修改)
[root@master ~]#vi /etc/hosts
[root@slave1 ~]#vi /etc/hosts
[root@slave2 ~]#vi /etc/hosts
依次添加如下内容:
192.168.128.130 master
192.168.128.131 slave1
192.168.128.132 slave2
2.配置 SSH 无密码登录
(1) 使用 ssh-keygen 产生公钥与私钥对。
在master虚拟机输入命令:
[root@master ~]# ssh-keygen -t rsa
执行过程中需要按三次 Enter 键。
生成私有密钥 id_rsa 和公有密钥 id_rsa.pub 两个文件。ssh-keygen 用来生成 RSA类型的密钥以及管理该密钥,参数“-t”用于指定要创建的 SSH 密钥的类型为RSA。
(2)用 ssh-copy-id 将公钥复制到slave1、slave2虚拟机中
[root@master ~]# ssh-copy-id -i /root/.ssh/id_rsa.pub slave1 //依次输入 yes,123456(root 用户的密码)
[root@master ~]# ssh-copy-id -i /root/.ssh/id_rsa.pub slave2 //依次输入 yes,123456(root 用户的密码)
(3)验证是否设置无密码登录
依次输入:
[root@master ~]# ssh slave1 //下图表示无密码登陆slave1成功
[root@master ~]# exit //下图表示退出slave1
用同样的方法验证slave2是否设置无密码登录。
(4)配置宿主机SSH 无密码登录master、slave1、slave2虚拟机
为了便于连接和操作master、slave1、slave2虚拟机,也需要配置SSH 无密码登录。在宿主机上操作如下:
[root@localhost~]#vi /etc/hosts
依次添加如下内容:
192.168.128.130 master
192.168.128.131 slave1
192.168.128.132 slave2
[root@localhost~]# ssh-keygen -t rsa
执行过程中需要按三次 Enter 键。
[root@localhost~]# ssh-copy-id -i /root/.ssh/id_rsa.pub master //依次输入 yes,123456(root 用户的密码)
[root@localhost ~]# ssh-copy-id -i /root/.ssh/id_rsa.pub slave1 //依次输入 yes,123456(root 用户的密码)
[root@localhost ~]# ssh-copy-id -i /root/.ssh/id_rsa.pub slave2 //依次输入 yes,123456(root 用户的密码)
[root@localhost ~]# ssh master
[root@localhost ~]# ssh slave1
[root@localhost ~]# ssh slave1
三、安装 jdk(每个节点都需安装)
用的是JDK1.8.0_131版本(jdk-8u131-linux-x64.tar.gz),有需要从百度网盘中下载。
下载链接:https://pan.baidu.com/s/1P2fkRonIVO-DZMNKNgCCKA
提取码:ml01
1. 解压并安装/opt 目录
[root@master opt]#tar -zxvf jdk-8u131-linux-x64.tar.gz
2.修改环境变量
[root@master ~]#vi /etc/profile
添加如下内容:
export JAVA_HOME=/opt/jdk1.8.0_131
export PATH=$PATH:$JAVA_HOME/bin
[root@master ~]#source /etc/profile //使配置生效
3.验证 JDK 是否配置成功
[root@master ]#java -version
4.将master上的配置好的JDK分发到slave1、slave2上
[root@master ]#scp -r /opt/jdk1.8.0_131 root@slave1:/opt
[root@master ]#scp -r /opt/jdk1.8.0_131 root@slave2:/opt
5.环境变量配置生效
[root@slave1 ~]#source /etc/profile
[root@slave2 ~]#source /etc/profile
6.验证 slave1、slave2中的JDK 是否配置成功
[root@slave1 ~]#java -version
[root@slave2 ~]#java -version
四、 Hadoop2.7.7 安装与配置
用的是Hadoop2.7.7版本(hadoop-2.7.7.tar.gz),有需要从百度网盘中下载。
下载链接:https://pan.baidu.com/s/13Mc6YsbHiZPkbozJUMuahg
提取码:mt1s
1.解压并安装/usr/local目录(主节点进行)
[root@master ]#tar -zxvf hadoop-2.7.7.tar.gz -C /usr/local
解压后即可看到/usr/local/hadoop-2.7.7文件夹。
2.配置 Hadoop
(1)进入目录
[root@master ]#cd /usr/local/hadoop-2.7.7/etc/hadoop
依次修改以下配置文件(使用 vi 命令对文件进行修改 如 vi core-site.xml),修改完按ESC键,输入:wq!保存退出。
注:文件中存在<configuration></configuration>,配置放入其中,且只保留一组的<configuration></configuration>。
(2)修改core-site.xml
[root@master hadoop]#vi xore-site.xml
添加如下内容:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop-2.7.7/hdfs/tmp</value>
</property>
</configuration>
(3)修改hadoop-env.sh
[root@master hadoop]#vi hadoop-env.sh
修改如下内容:
# The java implementation to use.
export JAVA_HOME=/opt/jdk1.8.0_131
(4)修改hdfs-site.xml
[root@master hadoop]#vi hdfs-site.xml
添加如下内容:
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop-2.7.7/hdfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop-2.7.7/hdfs/data</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:50090</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
</configuration>
(5)修改mapred-site.xml
此目录下并没有mapred-site.xml,须复制mapred-site.xml.template生成。命令如下:
[root@master hadoop]#cp mapred-site.xml.template mapred-site.xml
[root@master hadoop]#vi mapred-site.xml
添加如下内容:
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<!-- jobhistory properties -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
</configuration>
(6)修改yarn-site.xml
[root@master hadoop]#vi yarn-site.xml
添加如下内容:
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>${yarn.resourcemanager.hostname}:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>${yarn.resourcemanager.hostname}:8030</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>${yarn.resourcemanager.hostname}:8088</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.https.address</name>
<value>${yarn.resourcemanager.hostname}:8090</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>${yarn.resourcemanager.hostname}:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>${yarn.resourcemanager.hostname}:8033</value>
</property>
<property>
<name>yarn.nodemanager.local-dirs</name>
<value>/usr/local/hadoop-2.7.7/yarn/local</value>
</property>
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<property>
<name>yarn.nodemanager.remote-app-log-dir</name>
<value>/usr/local/hadoop-2.7.7/yarn/logs</value>
</property>
<property>
<name>yarn.log.server.url</name>
<value>http://master:19888/jobhistory/logs/</value>
<description>URL for job history server</description>
</property>
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>2048</value>
</property>
<property>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>512</value>
</property>
<property>
<name>yarn.scheduler.maximum-allocation-mb</name>
<value>4096</value>
</property>
<property>
<name>mapreduce.map.memory.mb</name>
<value>2048</value>
</property>
<property>
<name>mapreduce.reduce.memory.mb</name>
<value>2048</value>
</property>
<property>
<name>yarn.nodemanager.resource.cpu-vcores</name>
<value>1</value>
</property>
<property>
<name>yarn.application.classpath </name>
<value>
/usr/local/hadoop-2.7.7/etc/hadoop:/usr/local/hadoop-2.7.7/share/hadoop/common/lib/*:/usr/local/hadoop-2.7.7/share/hadoop/common/*:/usr/local/hadoop-2.7.7/share/hadoop/hdfs:/usr/local/hadoop-2.7.7/share/hadoop/hdfs/lib/*:/usr/local/hadoop2.7.7/share/hadoop/hdfs/*:/usr/local/hadoop-2.7.7/share/hadoop/mapreduce/lib/*:/usr/local/hadoop-2.7.7/share/hadoop/mapreduce/*:/usr/local/hadoop-2.7.7/share/hadoop/yarn:/usr/local/hadoop-2.7.7/share/hadoop/yarn/lib/*:/usr/local/hadoop-2.7.7/share/hadoop/yarn/*
</value>
</property>
</configuration>
(7)修改yarn-env.sh
[root@master hadoop]#vi yarn-env.sh
修改如下内容:
# some Java parameters
export JAVA_HOME=/opt/jdk1.8.0_131
(8)修改workers
[root@master hadoop]#vi workers
删除原有 localhost,添加:
master
slave1
slave2
(9)修改slaves
[root@master hadoop]#vi slaves
删除原有 localhost,添加:
slave1
slave2
3.拷贝 hadoop 安装文件到集群 slave1、slave2 节点
[root@master hadoop]#scp -r /usr/local/hadoop-2.7.7 root@slave1:/usr/local
[root@master hadoop]#scp -r /usr/local/hadoop-2.7.7 root@slave2:/usr/local
4.在master、slave1、slave2分别修改配置文件并生效
[root@master ~]#vi /etc/profile //添加 Hadoop 路径
添加以下内容:
export HADOOP_HOME=/usr/local/hadoop-2.7.7
export PATH=$PATH:$HADOOP_HOME/bin
[root@master ~]#source /etc/profile //配置生效
slave1、slave2 节点操作同上。
5.master节点上格式化 NameNode
[root@master ~]#cd /usr/local/hadoop-2.7.7/bin
[root@master ~]#./hdfs namenode -format
注:hadoop 集群只需要格式化一次即可,后续启动无需格式化。
6.master主节点启动Hadoop
[root@master ~]#cd /usr/local/hadoop-2.7.7sbin
[root@master ~]#./start-dfs.sh
[root@master ~]#./start-yarn.sh
[root@master ~]#./mr-jobhistory-daemon.sh start historyserver
7.使用 jps,查看进程
8.slave1、slave2子节点没有datanode进程
此时须重启子节点,进入子节点对应的sbin目录,执行:
[root@slave1 ~]#cd /usr/local/hadoop-2.7.7/sbin
[root@slave1 sbin]#hadoop-daemon.sh start datanode
[root@slave1 sbin]#hadoop-daemon.sh start tasktracker(该命令可能会失效,所以失效的话就跳过该条命令)
使用jps查看进程已正常显示datanode进程。
9.在宿主机上添加映射
[root@localhost ~]#vi \etc\hosts //添加 IP 映射
添加如下内容:
192.168.128.130 master
192.168.128.131 slave1
192.168.128.132 slave2
10.在宿主机上用浏览器查看
查看HDFS的NameNode:http://master:50070
查看YARN的ResourceManager:http://master:8088
Hadoop完全分布式集群——Hadoop 配置相关推荐
- hadoop完全分布式集群群起
hadoop完全分布式集群群起 1.配置slaves 2. 启动集群 1.配置slaves [xuzhenchao@hadoop102 hadoop-2.7.5]$ vim slaves 在文件中增加 ...
- 一步步教你Hadoop多节点集群安装配置
一步步教你Hadoop多节点集群安装配置 1.集群部署介绍 1.1 Hadoop简介 Hadoop是Apache软件基金会旗下的一个开源分布式计算平台.以Hadoop分布式文件系统HDFS(Hado ...
- Hadoop伪分布式集群的安装部署
Hadoop伪分布式集群的安装部署Hadoop伪分布式集群的安装部署 首先可以为Linux虚拟机搭建起来的最初状态做一个快照,方便后期搭建分布式集群时多台Linux虚拟机的准备. 一.如何为虚拟机做快 ...
- 大数据开发技术课程报告(搭建Hadoop完全分布式集群操作集群)
文章目录 大数据开发技术课程报告内容及要求 一. 项目简介和实验环境 二. 虚拟机的各项准备工作 三. 安装JDK并配置环境变量 四. 安装Hadoop并配置环境变量 五. 配置Hadoop完全分布式 ...
- 『实践』VirtualBox 5.1.18+Centos 6.8+hadoop 2.7.3搭建hadoop完全分布式集群及基于HDFS的网盘实现...
『实践』VirtualBox 5.1.18+Centos 6.8+hadoop 2.7.3搭建hadoop完全分布式集群及基于HDFS的网盘实现 1.基本设定和软件版本 主机名 ip 对应角色 mas ...
- HADOOP 伪分布式集群搭建
一 linux 环境的搭建 由于笔者这里使用的是vmware 虚拟机 采用centos7 linux 操作系统进行搭建,所以一下示例均以centos7进行示例 1. 搭建vmware 虚拟机 (1) ...
- Hadoop完全分布式集群总结
觉得有帮助的,请多多支持博主,点赞关注哦~ 文章目录 Hadoop完全分布式集群搭建 一.新建虚拟机 二.规划集群与服务 1.逻辑结构 2.物理结构 3.总结构 三.配置集群 1.主节点基础网络配置 ...
- 大数据开发·关于虚拟机Hadoop完全分布式集群搭建教程
hadoop完全分布式集群搭建 一.搭建准备 1.安装VMware虚拟机 2.Xshell 7 远程客户端及Xftp 7安装 3.搭建模板虚拟机hadoop100 配置虚拟机网络 为虚拟机普通用户配置 ...
- linux 部署Hadoop完全分布式集群教程
一.准备工作 1.本次任务需要三台虚拟机,主机名分别为Master.Slave01.Slave02先在Master上安装好jdk和Hadoop(安装教程可以参考这两篇文章)然后为了简便我们直接克隆两台 ...
- Linux 部署Hadoop伪分布式集群教程
首先:我们需要下载一些关于Hadoop伪分布式集群需要的工具与tar包 链接: https://pan.baidu.com/s/1oUw1jDCxfghWsnaWauSHKg 提取码:6s5a 接下来 ...
最新文章
- Delphi、C#之父Anders Hejlsberg首次访华 推广TypeScript
- C篇(一) 用Codeblocks建立一个C的工程
- java处理高并发高负载类网站的优化方法
- [Cnoi2019]须臾幻境(LCT维护最大生成树+主席树/分块)
- java自动投票代码,Java 投票(自动添一)
- 会议指南二维码生成_包装和准备技术会议的指南
- python里的shell是什么_Python与shell的3种交互方式介绍
- Java框架之SpringMVC 05-拦截器-异常映射-Spring工作流程
- 《正版 图解语音识别 语音识别入门实践教程 语音识别技术书 人工智能机器学习深度学习计算机网络编程书籍R3Z978》[日]荒木雅弘著【摘要 书评 在线阅读】-苏宁易购图书...
- Entity Framework 全面教程详解
- sql语句中having的用法
- 美赛常用查数据查文献网站
- HCNP-Cloud云计算认证
- JavaScript个人学习心得
- numpy_flatten函数
- 开源微商城 特惠端午节
- App自动化界面操作_按键模拟(模拟键盘信号)、driver.keyevent(keycode)
- fzoj Problem 2190 非提的救赎 【单调栈】
- edui 富文本编辑_终于我还是输给了免费富文本编辑器
- WPViewPDF Delphi 和 .NET 的 PDF 查看组件
热门文章
- java 电子时钟_Java电子时钟实现代码
- 谷歌浏览器加载外部 DLL 文件 关于chrome上的网银安全控件开发技术(chrome 调用本地dll)
- 中国姓氏数据库 java_中国姓的数据库(sql版),下你妹CSDN,又不是你的资源要你妹积分!...
- 热门软件看点:哇嘎和它的对手们
- 因子分析在SPSS中的应用
- 【元胞自动机】基于matlab元胞自动机单车道交通流(时空图)【含Matlab源码 1681期】
- 国内经典BI系统架构分析
- 相册制作软件--4月精选婚纱相册模板{H1.爱的天空}样片
- a5松下驱动器参数设置表_松下伺服驱动器参数设置MSD043A1X
- android抢qq红包源码,QQ抢红包插件实现,安卓源码,以及详细分析,androidqq抢红包源码,捡代码论坛整理...