Hadoop集群安装和搭建(全面超详细的过程)

文章目录

  • Hadoop集群安装和搭建(全面超详细的过程)
  • 前言
  • 一、虚拟机的安装
  • 二、Linux系统安装
    • 1.环境准备
    • 2.虚拟机安装
  • 三、Centos系统安装
  • 四、静态网络配置
  • 五、虚拟机克隆配置
  • 六、配置hosts文件和ssh免密登录
  • 七、Hadoop集群配置
  • 八、Hadoop集群测试

前言

   Hadoop是一个开源的、可运行与Linux集群上的分布式计算平台,用户可借助Hadoop存有基础环境的配置(虚拟机安装、Linux安装等),Hadoop集群搭建,配置和测试。


一、虚拟机的安装

   VMware (Virtual Machine ware)是一个“虚拟PC”软件公司,提供服务器、桌面虚拟化的解决方案。
使用的虚拟软件:VMware15
VMware15软件的安装包与安装教程:https://mp.weixin.qq.com/s/AqPE61EmGJ89lO6sJshOzA


二、Linux系统安装

1.环境准备

  • VMware15.5 pro
  • Centos7镜像文件(mini)
  • Centos7下载链接:https://mirrors.tuna.tsinghua.edu.cn/centos/7.9.2009/isos/x86_64/

2.虚拟机安装

2.1 新建虚拟机,选择典型


;2.2 选择安装程序光盘映像文件(iso)

2.3 虚拟机名称和位置

2.4 指定磁盘容量

2.5 虚拟机配置如下


三、Centos系统安装

1.开启虚拟机

2.安装 CentOS7

3.选择语言(默认为English)


4.日期和时间亚洲/上海(这里默认为最小)

5.安装位置

6.系统网络和主机名

7.开始安装

8.设置ROOT密码

9.安装完成后重启即可

10.使用root权限登录


四、静态网络配置

1.查看网络是否连通

ping www.baidu.com

2.安装net-tools

 yum upgradeyum install net-tools

3.查看Mac地址(enter后面)

4.查看ip地址的起始和结束地址


5.修改网络配置文件

vi /etc/sysconfig/network-scripts/ifcfg-ens33

mac地址为2步骤的enter值
ip地址参照4步骤自行选择(必须在起始和结束的范围内)
子网掩码默认设置为255.255.255.0
网关的值为将ip地址中最后一段的值改为2
DNS使用谷歌提供的免费dns1:8.8.8.8


6.重启网络服务,查看是否配置成功

systemctl restart network
ping www.baidu.com

7.重启虚拟机后,查看是否连通网络(ip地址并未改变,且能连通网络)

reboot
ifconfig
ping www.baidu.com


五、虚拟机克隆配置

1.克隆虚拟机(右键相应虚拟机->管理->克隆)

2.创建完整克隆

3.克隆虚拟机名称和位置(等待克隆完成)

4.开启Hadoop02,修改主机名

hostnamectl set-hostname hadoop02
reboot                   //修改主机名后需重启虚拟机

5.查看mac地址

ifconfig

6.网络配置文件修改(标红需要修改,IP自己设置,mac用步骤5查到地址,网关为ip地址最后改为2)

vi /etc/sysconfig/network-scripts/ifcfg-ens33

7.重新启动网络配置(查看网络是否可用)

systemctl restart network
ping www.baidu.com

8.按照以上步骤,再克隆另外一台虚拟机Hadoop03


六、配置hosts文件和ssh免密登录

1.修改hosts配置文件(所有虚拟机都需要配置此文件)

vi /etc/hosts

2.生成密钥文件(四次回车)

ssh-keygen -t rsa

2.将本机公钥文件复制到其它虚拟机上(接收方需先开机)
 在hadoop01上执行,先输入yes,后输入对应主机的密码,多台虚拟机配置操作相同

ssh-copy-id hadoop01
ssh-copy-id hadoop02
ssh-copy-id hadoop03

3.在虚拟机hadoop02,hadoop03都需要执行,保证三台主机都能够免密登录

ssh-copy-id hadoop01
ssh-copy-id hadoop02
ssh-copy-id hadoop02

3.查看是否成功免密登录


七、Hadoop集群配置

1.在所有虚拟机根目录下新建文件夹export,export文件夹中新建data、servers和software文件

mkdir -p /export/data
mkdir -p /export/servers
mkdir -p /export/software

2.准备安装包
hadoop-2.7.4.tar.gz
jdk-8u161-linux-x64.tar.gz

3.下载安装软件Xshell
 打开Xshell后点击文件并选择新建,名称填hadoop01,主机填写hadoop01的IP地址,再点击用户身份验证,把hadoop01的账号,密码输入,就可以通过Xshell控制虚拟机,方便后续软件的传输。(重复步骤新建会话控制hadoop02,hadoop03)


4.在Xshell先进入software文件内,然后下载rz命令,并使用rz命令进行文件上传,此时会弹出上传的窗口,选择要上传的文件,点击确定即可将本地文件上传到Linux上。

cd /export/software
yum   -y  install  lrzsz
rz

5.安装JDK(所有虚拟机都要操作)
5.1 解压jdk

cd /export/software
tar -zxvf jdk-8u161-linux-x64.tar.gz -C /export/servers/

5.2 重命名jdk目录

cd /export/servers
mv jdk1.8.0_161 jdk

5.3 配置环境变量

vi /etc/profile
#tip:在配置文件末尾追加
export JAVA_HOME=/export/servers/jdk
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

5.4 使配置文件生效

source /etc/profile

5.5 查看是否配置成功

java -version

6.Hadoop安装(所有虚拟机都要操作)
6.1 解压hadoop

cd /export/software
tar -zxvf hadoop-2.7.4.tar.gz -C /export/servers/

6.2 打开配置文件

vi /etc/profile

6.3 配置hadoop环境变量

#tip:在文件末尾追加
export HADOOP_HOME=/export/servers/hadoop-2.7.4
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

6.4 使配置文件生效

source /etc/profile

6.5 查看是否配置成功

hadoop version

7.Hadoop集群配置
7.1 进入主节点配置目录

cd /export/servers/hadoop-2.7.4/etc/hadoop/

7.2 修改hadoop-env.sh文件

vi hadoop-env.sh
#tip:找到相应位置,添加这段话
export JAVA_HOME=/export/servers/jdk

7.3 修改core-site.xml文件

vi core-site.xml
#tip:下图中乱码部分为注释代码,可以删掉,不影响
<configuration><!--用于设置Hadoop的文件系统,由URI指定--><property><name>fs.defaultFS</name><!--用于指定namenode地址在hadoop01机器上--><value>hdfs://hadoop01:9000</value></property><!--配置Hadoop的临时目录,默认/tem/hadoop-${user.name}--><property><name>hadoop.tmp.dir</name><value>/export/servers/hadoop-2.7.4/tmp</value></property>
</configuration>

7.4 修改hdfs-site.xml文件

vi hdfs-site.xml
<configuration><!--指定HDFS的数量--><property><name>dfs.replication</name><value>3</value></property><!--secondary namenode 所在主机的IP和端口--><property><name>dfs.namenode.secondary.http-address</name><value>hadoop02:50090</value></property>
</configuration>

7.5 修改mapred-site.xml文件

cp mapred-site.xml.template mapred-site.xml**
vi mapred-site.xml
<configuration><!--指定MapReduce运行时的框架,这里指定在YARN上,默认在local--><property><name>mapreduce.framework.name</name><value>yarn</value></property>
</configuration>

7.6 修改yarn-site.xml文件

vi yarn-site.xml
<configuration><!--指定YARN集群的管理者(ResourceManager)的地址--><property><name>yarn.resourcemanager.hostname</name><value>hadoop01</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property>
</configuration>

7.7 修改slaves文件

#tip:将文件中的localhost删除,添加主节点和子节点的主机名称
#tip:如主节点hadoop01,子节点hadoop02和hadoop03
vi slaves

7.8将主节点中配置好的文件和hadoop目录copy给子节点

#tip:这里主节点为hadoop01,子节点为hadoop02和hadoop03
scp /etc/profile hadoop02:/etc/profile
scp /etc/profile hadoop03:/etc/profile
scp -r /export/ hadoop02:/
scp -r /export/ hadoop03:/

7.9 使子节点中的配置文件生效

#tip:返回hadoop02和hadoop03节点执行下面命令
source /etc/profile

7.10 在主节点格式化文件系统(successfully formatted 格式化成功)

hdfs namenode -format


八、Hadoop集群测试

1.启动集群
1.1在主节点启动所有HDFS服务进程

start-dfs.sh

1.2 在主节点启动所有HDFS服务进程

start-yarn.sh

1.3 使用jps命令查看进程


2.关闭防火墙(所有虚拟机都要操作)

systemctl stop firewalld    #关闭防火墙
systemctl disable firlewalld  #关闭防火墙开机启动

3.打开window下的C:\Windows\System32\drivers\etc打开hosts文件,在文件末添加三行代码:
192.168.121.134 hadoop01
192.68.121.135 hadoop02
192.168.121.136 hadoop03

4.通过UI界面查看Hadoop运行状态,在Windows系统下,访问http://hadoop01:50070,查看HDFS集群状态

5.在Windows系统下,访问http://hadoop01:8088,查看Yarn集群状态

Hadoop集群安装和搭建(全面超详细的过程)相关推荐

  1. Hadoop集群安装与配置

    转载自Hadoop集群安装配置教程_Hadoop2.6.0_Ubuntu/CentOS 本教程讲述如何配置 Hadoop 集群,默认读者已经掌握了 Hadoop 的单机伪分布式配置,否则请先查看Had ...

  2. Hadoop集群环境配置搭建

    一.简单介绍 Hadoop最早诞生于Cutting于1998年左右开发的一个全文文本搜索引擎 Lucene,这个搜索引擎在2001年成为Apache基金会的一个子项目,也是 ElasticSearch ...

  3. Hadoop实战-中高级部分 之 Hadoop 集群安装

    Hadoop RestFul Hadoop HDFS原理1 Hadoop HDFS原理2 Hadoop作业调优参数调整及原理 Hadoop HA Hadoop MapReduce高级编程 Hadoop ...

  4. Hadoop集群安装及其配置(三台虚拟机)

    Hadoop集群安装及其配置(三台虚拟机) 利安装配置前准备--安装虚拟机 利用cat查看配置文件 修改主机名称 配置IP映射 配置网卡设备的mac地址 Xshell的安装与配置 ssh的配置 JDK ...

  5. 一脸懵逼学习基于CentOs的Hadoop集群安装与配置(三台机器跑集群)

    1:Hadoop分布式计算平台是由Apache软件基金会开发的一个开源分布式计算平台.以Hadoop分布式文件系统(HDFS)和MapReduce(Google MapReduce的开源实现)为核心的 ...

  6. CentOS7.0基于hadoop集群安装配置Hive

    前言 安装Apache Hive前提是要先安装hadoop集群,并且hive只需要在hadoop的namenode节点集群里安装即可(需要再有的namenode上安装),可以不在datanode节点的 ...

  7. (实验七)Hadoop集群安装之安装数据仓库Hive

    安装数据仓库Hive 实验目的要求 实验环境 软件版本 实验步骤 步骤一:Hive工具安装配置 步骤二:开启zookeeper集群,Hadoop集群以及HBase集群 步骤三:创建hive元数据数据库 ...

  8. hadoop集群安装

    一.简述 本次集群安装基于4台虚拟集群下进行. hadoop版本使用 2.6.4 操作系统为 centos6.5 jdk版本为 jdk-7u67-linux-x64.tar.gz 二.准备 创建had ...

  9. Hadoop集群安装-CDH5(5台服务器集群)

    CDH5包下载:http://archive.cloudera.com/cdh5/ 架构设计: 主机规划: IP Host 部署模块 进程 192.168.254.151 Hadoop-NN-01 N ...

最新文章

  1. .NET 3.5 中WCF客户端代理性能改进以及最佳实践
  2. Makefile文件的编写规则
  3. boost::posix_time模块实现计算时间段的测试程序
  4. python3.7对应的numpy版本_图解NumPy包一文就够了
  5. matlab的max与min函数
  6. Flex与Java通信之HttpService方式
  7. python包和目录有什么不同_python模块和包的区别
  8. 对方服务器未响应,重新投递中 postfix手心,我配置的Postfix邮件服务器邮件发不出去,在mail.log里显示如下~请求帮助...
  9. mysql提取前两个数据_各种数据库提取表的前几条记录的方法
  10. sql server 约束 查找
  11. [bzoj1269]文本编辑器editor [bzoj1500]维修数列
  12. 【OpenCV学习笔记】【函数学习】三(cvGetCaptureProperty函数)
  13. msi z170 网卡 linux,z170+skylake黑苹果安装笔记
  14. 域名前缀和后缀html,域名常用前缀和后缀
  15. java23种设计模式
  16. 非线性薛定谔方程_现有光纤网络正被推向极限,未来怎么办?薛定谔波动方程来帮忙...
  17. CSS垂直居中img
  18. 在大厂,我和同事搞对象
  19. 金蝶显示数据无法连接服务器,金蝶连接云服务器异常怎么回事
  20. lnk1120如何解决_Linking a C++ DLL 引发LNK1120和LNK2019问题的解决方案

热门文章

  1. 专科考研,一个大专程序员的自我救赎
  2. 【springmvc】Rest ful风格
  3. 安卓7.0抓包之商店包(无需root)
  4. iOS Core Location 实现定位
  5. 测试高考体育成绩的软件,高考体育测试提前准备!考生最关心的评分标准等问题解答...
  6. 在Ubuntu 20.04中使用RA-SZZ等算法,以及Postgre数据库的基本设置和使用
  7. Android12 应用启动流程分析
  8. React系统学习笔记
  9. 在线反馈,急速解决,移动云视频客服让沟通从此不设限
  10. 2016年1月全国网络媒体技术联盟第七届年会的几个关键词