通过前面https://www.bilibili.com/video/av31184748/的课程,我们已经配好了jdk、hosts、免密登陆等。
下面我们来进行hadoop集群的安装与部署
注:文章中的qipao请修改为自己的主机名或者ip地址
1.1首先我们去官网下载hadoop


下载好了,就是它

1.2上传hadoop
下面我们用winSCP或者mobaxterm把hadoop传输到一台虚拟机上的/usr/local/目录下,用软件连接后,选到/usr/local/目录拖进去就可以了


ok,拖进来了
1.3解压hadoop并配置环境变量
下面我们用Xshell或者mobaxterm连接到传好hadoop压缩包的那台虚拟机。
切换到/usr/local目录

执行tar -zxvf hadoop-2.8.3.tar.gz

ls命令查看,下面已经有了hadoop文件夹

然后再配置hadoop的环境变量
执行命令 vi /etc/profile
在末尾添加下面的代码
(注:如果你的hadoop目录名和我的不一样,请做相应修改)

#hadoop
export HADOOP_HOME=/usr/local/hadoop-2.8.3
export PATH=$PATH:$HADOOP_HOME/bin:/$HADOOP_HOME/sbin


执行命令

source  /etc/porfile

1.4 修改hadoop中的一系列配置文件
提示:大家输入命令的时候输一点按tab键自己就出来了
执行命令 cd /usr/local/hadoop-2.8.3/etc/hadoop/ 切换到配置文件目录

修改/usr/local/hadoop-2.8.3/etc/hadoop目录内的一系列文件。
1.4.1 修改core-site.xml
执行命令vi core-site.xml
注:文章中的qipao请修改为自己的主机名或者ip地址
<configuration></configuration>节点内加入配置:

<configuration><property><name>hadoop.tmp.dir</name><value>/usr/local/hadoop-2.8.3/tmp</value><description>Abase for other temporary directories.</description></property><property><name>fs.default.name</name><value>hdfs://qipao2:9000</value></property>
</configuration>

1.4.2修改 hadoop-env.sh
执行命令 vi hadoop-env.sh
export JAVA_HOME=${JAVA_HOME}
修改为:export JAVA_HOME=/usr/local/jdk1.8.0_181
说明:修改为自己的JDK路径

1.4.3修改hdfs-site.xml
执行命令 vi hdfs-site.xml
<configuration></configuration>节点内加入配置:

<property><name>dfs.name.dir</name><value>/usr/local/hadoop-2.8.3/dfs/name</value><description>Path on the local filesystem where theNameNode stores the namespace and transactions logs persistently.</description></property><property><name>dfs.data.dir</name><value>/usr/local/hadoop-2.8.3/dfs/data</value><description>Comma separated list of paths on the localfilesystem of a DataNode where it should store its blocks.</description></property><property><name>dfs.replication</name><value>2</value></property><property><name>dfs.permissions</name><value>false</value><description>need not permissions</description></property>

说明:dfs.permissions配置为false后,可以允许不要检查权限就生成dfs上的文件,方便倒是方便了,但是你需要防止误删除,请将它设置为true,或者直接将该property节点删除,因为默认就是true。
1.4.4 新建并且修改mapred-site.xml
在当前目录下

cp   mapred-site.xml.template     mapred-site.xml

然后执行命令

vi mapred-site.xml

注:文章中的qipao请修改为自己的主机名或者ip地址
<configuration></configuration>节点内加入配置:

 <property><name>mapred.job.tracker</name><value>qipao2:49001</value></property><property><name>mapred.local.dir</name><value>/usr/local/hadoop-2.8.3/var</value></property><property><name>mapreduce.framework.name</name><value>yarn</value>
</property>
<name>mapreduce.jobhistory.address</name>
<value>qipao2:10020</value>
<description>MR JobHistory Server管理的日志的存放位置</description>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>qipao2:19888</value>
<description>查看历史服务器已经运行完的Mapreduce作业记录的web地址,需要启动该服务
才行</description> </property>
<property>
<name>mapreduce.jobhistory.done-dir</name>
<value>/history/done</value>
<description>MR JobHistory
Server管理的日志的存放位置,默认:/mr-history/done</description>
</property>
<property>
<name>mapreduce.jobhistory.intermediate-done-dir</name>
<value>/history/done_intermediate</value>
<description>MapReduce作业产生的日志存放位置,默认值:/mr-history/tmp</description>
</property>
</property>

1.4.5修改slaves文件
注:文章中的qipao请修改为自己的主机名或者ip地址
执行命令 vi slaves
将里面的localhost删除
添加另外两外虚拟机的主机名 (注:如果你的主机名没有配置好可以用ip)

qipao3
qipao3

这里换成你们自己的主机名

1.4.6 修改yarn-site.xml文件
执行命令 vi yarn-site.xml
注:文章中的qipao请修改为自己的主机名或者ip地址
<configuration></configuration>节点内加入配置

<property><name>yarn.resourcemanager.hostname</name><value>qipao2</value></property><property><description>The address of the applications manager interface in the RM.</description><name>yarn.resourcemanager.address</name><value>${yarn.resourcemanager.hostname}:8032</value></property><property><description>The address of the scheduler interface.</description><name>yarn.resourcemanager.scheduler.address</name><value>${yarn.resourcemanager.hostname}:8030</value></property><property><description>The http address of the RM web application.</description><name>yarn.resourcemanager.webapp.address</name><value>${yarn.resourcemanager.hostname}:8088</value></property><property><description>The https adddress of the RM web application.</description><name>yarn.resourcemanager.webapp.https.address</name><value>${yarn.resourcemanager.hostname}:8090</value></property><property><name>yarn.resourcemanager.resource-tracker.address</name><value>${yarn.resourcemanager.hostname}:8031</value></property><property><description>The address of the RM admin interface.</description><name>yarn.resourcemanager.admin.address</name><value>${yarn.resourcemanager.hostname}:8033</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.scheduler.maximum-allocation-mb</name><value>2048</value><discription>每个节点可用内存,单位MB,默认8182MB</discription></property><property><name>yarn.nodemanager.vmem-pmem-ratio</name><value>2.1</value></property><property><name>yarn.nodemanager.resource.memory-mb</name><value>2048</value></property><property><name>yarn.nodemanager.vmem-check-enabled</name><value>false</value></property>

说明:yarn.nodemanager.vmem-check-enabled这个的意思是忽略虚拟内存的检查,如果你是安装在虚拟机上,这个配置很有用,配上去之后后续操作不容易出问题。如果是实体机上,并且内存够多,可以将这个配置去掉。
1.5将hadoop传输至其他虚拟机
请将qipao3 qipao4换为自己的其他虚拟机的主机名或者ip

scp -r /usr/local/hadoop-2.8.3 root@qipao3:/usr/local/
scp -r /usr/local/hadoop-2.8.3 root@qipao4:/usr/local/

1.6为另外两台虚拟机配置hadoop的环境变量
参考1.3中的配置方法
记得执行 source /etc/profile 使环境变量生效
1.7启动hadoop
1.7.1在namenode上执行初始化
因为qipao2是namenode,qipao3和qipao4都是datanode,所 以只需要对qipao2进行初始化操作,也就是对hdfs进行格式化。
执行初始化脚本,也就是执行命令:

 hadoop  namenode  -format

1.7.2在namenode上执行启动命令
分别执行命令

start-dfs.sh start
start-yarn.sh start
./mr-jobhistory-daemon.sh   start historyserver 启动历史记录服务

1.8测试hadoop
haddoop启动了,需要测试一下hadoop是否正常。
打开浏览器(不要用IE或者Edge建议谷歌浏览器或火狐浏览器)
输入namenode的ip地址,也就是qipao2的ip地址后面跟上端口号:50070 也就是后面的语句,根据ip做相应的修改就好了http://192.168.70.3:50070


hadoop启动成功

centos7下hadoop的集群安装相关推荐

  1. 虚拟机CentOS 7.5.1804下无外网Hadoop HA集群安装

    网上有很多Hadoop HA集群安装的资料,我当时安装也是参考了官方文档和这些资料才安装成功的.由于使用的环境和软件版本可能有所不同,且因工作环境网络所限无法连接外网,加之记录一下自己的安装过程,不枉 ...

  2. 记一次 Centos7.x Hadoop3.x集群安装部署 Pig 0.17.0

    基本信息 官网 http://pig.apache.org/ 下载地址 http://www.apache.org/dyn/closer.cgi/pig https://mirror.bit.edu. ...

  3. Hadoop分布式集群安装在三台Ubuntu系统电脑

    前段时间搭建Hadoop分布式集群,踩了不少坑,网上很多资料都写得不够详细,对于新手来说搭建起来会遇到很多问题.以下是自己根据搭建Hadoop分布式集群的经验希望给新手一些帮助.当然,建议先把HDFS ...

  4. Apache Kafka-初体验Kafka(03)-Centos7下搭建kafka集群

    文章目录 概述 部署信息 配置信息 验证 概述 对于kafka来说,一个单独的broker意味着kafka集群中只有一个节点.要想增加kafka集群中的节点数量,只需要多启动几个broker实例即可. ...

  5. Hadoop分布式集群安装配置

    1.1 安装环境 操作系统deepin 15.11, VMware Workstation,hadoop 3.1.3 版本.在deepin 操作系统中安装 VMware Workstation,在 V ...

  6. Hadoop分布式集群安装

    环境准备 操作系统使用ubuntu-16.04.2 64位 JDK使用jdk1.8 Hadoop使用Hadoop 2.8版本 镜像下载 操作系统 操作系统使用ubuntu-16.04.2-deskto ...

  7. Shell脚本完成hadoop的集群安装

    虽然整体实现的自动安装,但还是有很多需要完善的地方,比如说: 1. 代码目前只能在root权限下运行,否则会出错,这方面需要加权限判断: 2.另外可以增加几个函数,减少代码冗余: 3.还有一些判断不够 ...

  8. Hadoop服务器集群安装部署及配置

    配置Hadoop 配置jdk 配置从节点服务器主机名称:

  9. Hadoop集群安装部署_分布式集群安装_02

    文章目录 一.上传与 解压 1. 上传安装包 2. 解压hadoop安装包 二.修改hadoop相关配置文件 2.1. hadoop-env.sh 2.2. core-site.xml 2.3. hd ...

最新文章

  1. 在Tomcat中部署Java Web应用程序几种方式
  2. Ubuntu中apache+php+sql搭建/卸载
  3. bzoj 1004: [HNOI2008]Cards
  4. 五大微信小程序开发IDE深度评测
  5. RedHat AS4 配置Yum
  6. hadoop--Yarn资源调度器的基础架构、工作机制 与 作业提交全过程
  7. 文本标注工具——doccano
  8. 你的特斯拉Model 3,只需要一台手机就能偷走它
  9. 麦克纳姆轮全向移动机器人纵向直线运动分析
  10. 多模态综述 | 一文了解Language-Vision预训练最新进展和新领域
  11. Flink 在快手实时多维分析场景的应用
  12. Windows10 部分系统无法安装USB转串口驱动问题解决
  13. 做了6年的Java,java简历包装项目经验
  14. 阿西莫夫机器人三定律或已过时?伯克利教授定义AI发展“新三原则”!
  15. c#、cefsharp 获取、提取 img、image 图片标签二进制数据
  16. java ajax是什么东东_Ajax是什么意思,它是在做什么用的?
  17. angularjs防抖
  18. java制作纯字rpg小游戏_初学JAVA时编写的rpg文字游戏
  19. java类型参数推断_Java泛型类型推断
  20. win7产生大量evtx文件_Windows XML Event Log (EVTX)单条日志清除(四)——通过注入获取日志文件句柄删除当前系统单条日志记录...

热门文章

  1. 乒乓操作(Ping-Pong)的理解:为什么是另一种pipeline?
  2. 甘肃省计算机二级考试试题,2013甘肃省计算机等级考试试题 二级ACCESS最新考试试题库(完整版)...
  3. 关于 SSL加密协议 及 CA 证书
  4. IBM制造类人脑的计算机
  5. kubernetes V1.6.4 分布式集群的部署及service负载均衡
  6. Node.js简介、安装Node.js、ES6中的模块
  7. js利用indexof方法实现数组去重
  8. python 判断空缺字符
  9. 7-3 不能用循环是一件多么悲伤的事 (30 分)
  10. Java实现 LeetCode 203 移除链表元素