下载地址:http://archive.apache.org/dist/hadoop/core/hadoop-3.2.2/
版本:3.2.2
文件名:hadoop-3.2.2.tar.gz

服务器信息

IP地址 主机名
192.168.1.71 hadoop1
192.168.1.72 hadoop2
192.168.1.73 hadoop3

备注:默认是在hadoop1服务器上操作

1. 解压文件

tar -zxvf hadoop-3.2.2.tar.gz

2. 配置文件

路径:etc/hadoop

  1. core-site.xml
<configuration><property><name>fs.default.name</name><value>hdfs://hadoop1:8020</value></property><property><name>hadoop.tmp.dir</name><value>/export/service/hadoop-3.2.2/data/temp</value></property><!-- 缓冲区大小, 实际工作中根据服务器性能动态调整--><property><name>io.file.buffer.size</name><value>4096</value></property><!-- 开启hdfs的垃圾桶机制, 删除掉的数据可以从垃圾桶中回收 单位:分钟--><property><name>fs.trash.interval</name><value>10080</value></property>
</configuration>
  1. hdfs-site.xml
<configuration><property><name>dfs.namenode.secondary.http-address</name><value>hadoop1:50090</value></property><!-- 指定namenode的访问地址和端口--><property><name>dfs.namenode.http-address</name><value>hadoop1:50070</value></property><!-- 存储元数据位置--><property><name>dfs.namenode.name.dir</name><value>file:///export/service/hadoop-3.2.2/data/namenode</value></property><!-- datanode数据存储位置--><property><name>dfs.datanode.data.dir</name><value>file:///export/service/hadoop-3.2.2/data/datanode</value></property><!-- datanode日志文件存储位置--><property><name>dfs.datanode.edits.dir</name><value>file:///export/service/hadoop-3.2.2/data/edits</value></property><property><name>dfs.datanode.checkpoint.dir</name><value>file:///export/service/hadoop-3.2.2/data/checkpoint</value></property><property><name>dfs.datanode.checkpoint.edits.dir</name><value>file:///export/service/hadoop-3.2.2/data/cpedits</value></property><!-- 文件存储副本个数--><property><name>dfs.replication</name><value>3</value></property><!-- 设置hdfs文件权限--><property><name>dfs.permissions</name><value>false</value></property><!-- 设置一个文件切片的大小 128M--><property><name>dfs.blocksize</name><value>134217728</value></property>
</configuration>
  1. hadoop-env.sh
# 配置jdk路径
export JAVA_HOME=/home/sjyy/software/jdk
  1. mapred-site.xml
<configuration><!-- 开启mapreduce小任务模式--><property><name>mapreduce.job.ubertask.enable</name><value>true</value></property><!-- 设置历史任务的主机和端口--><property><name>mapreduce.jobhistory.address</name><value>hadoop1:10020</value></property><!-- 设置网页访问历史任务的主机和端口--><property><name>mapreduce.jobhistory.webapp.address</name><value>hadoop1:19888</value></property>
</configuration>
  1. yarn-site.xml
<configuration><!-- 开启mapreduce小任务模式--><property><name>mapreduce.job.ubertask.enable</name><value>true</value></property><!-- 设置历史任务的主机和端口--><property><name>mapreduce.jobhistory.address</name><value>hadoop1:10020</value></property><!-- 设置网页访问历史任务的主机和端口--><property><name>mapreduce.jobhistory.webapp.address</name><value>hadoop1:19888</value></property>
</configuration>
  1. workers
hadoop1
hadoop2
hadoop2

3. 分发

scp  hadoop-3.2.2/ hadoop2:$PWD
scp  hadoop-3.2.2/ hadoop2:$PWD

4. 配置环境变量(三台都执行)

vim /etc/profile

export HADOOP_HOME=/home/sjyy/service/hadoop-3.2.2
export PATH=:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

source /etc/profile

5. 启动和关闭

cd /home/sjyy/service/hadoop-3.2.2
# hdfs格式化 ,只执行一次,后续启动不在执行
bin/hdfs namenode -format
# 启动hdfs和yarn
sbin/start-all.sh
# 关闭
sbin/stop-all.sh
# 启动历史任务
sbin/mr-jobhistory-daemon.sh start historyserver
# 关闭历史任务
sbin/mr-jobhistory-daemon.sh stop historyserver

6. 查看

  1. hdfs:http://192.168.1.71:50070
  2. yarn:http://192.168.1.71:8088
  3. history:http://192.168.1.71:19888

hadoop集群部署超级详细相关推荐

  1. 【大数据】搭建Hadoop集群,超级详细

    目录 搭建完全分布式运行模式(开发重点) 1.1 Hadoop部署 1.2 配置集群 1.3 配置历史服务器 1.4 配置日志的聚集 1.5 分发Hadoop 1.6 群起集群 1.7 Hadoop群 ...

  2. Hadoop集群部署权限总结

    这是一篇总结的文章,主要介绍 Hadoop 集群快速部署权限的步骤以及一些注意事项.如果你想了解详细的过程,请参考本博客中其他的文章. 1. 开始之前 hadoop 集群一共有三个节点,每个节点的 i ...

  3. 学习笔记Hadoop(五)—— Hadoop集群的安装与部署(2)—— Hadoop集群部署模式、配置固定IP

    一.Hadoop集群部署模式 Hadoop的安装部署的模式一共有三种: 独立模式(本地模式) standalone 默认的模式,无需运行任何守护进程(daemon),所有程序都在单个JVM上执行.由于 ...

  4. 超详细的Hadoop集群部署

    本文建立在已经把虚拟机ip环境等已经下载好情况下. 那么,直接开始今天的正题: 搭建集群 环境准备 这里提供两种思路:一种是将一台直接搭建好,后面的克隆或者copy虚拟机 一种是3台并进,多次进行虚拟 ...

  5. Hadoop集群部署模型纵览1

    vSphere Big Data Extensions(简称BDE)支持多种部署方式来构建Hadoop集群.按: 存储/计算绑定模型:将存储节点(Data Node)和计算节点(Task Tracke ...

  6. Hadoop集群搭建超详细说明

    最近随着公司业务的发展,在一波重构中技术层面主要的目标是双中台建设,由是就有了本文. # 数据中台 ## 1.环境准备 ### 1.1.前置条件 #### Linux wget ##### rpm 安 ...

  7. hadoop集群部署

    hadoop简介 Hadoop是一个由Apache基金会所开发的分布式系统基础架构, 是一个存储系统+计算框架的软件框架,主要解决海量数据存储与计算的问题,是大数据技术中的基石. Hadoop以一种可 ...

  8. Hadoop集群部署后相关WEB界面打不开大概原因

    集群部署完毕后,查看相关WEB界面,打不开的原因可能如下: 1.可以先去检查LINUX(CentOS7)机器的防火墙是否关闭,命令如下: systemctl status firewalld.serv ...

  9. Hadoop集群搭建(详细简单粗暴)

    搭建所用Hadoop java版本 hadoop-3.1.3.tar.gz jdk-8u212-linux-x64.tar.gz 安装包链接:Hadoop及jdk安装包提取码:icn6 首先,我们先下 ...

最新文章

  1. python mongodb orm_Django 通过 mongoengine 连接 MongoDB 进而使用orm进行CRUD
  2. 牛人 20000 字的 Spring Cloud 总结,太硬核了~
  3. IO 模型知多少 | 代码篇
  4. HP-UX的终端TERM要设置成什么,才能输入中文呢?
  5. 计算机数制和运算的一点总结.
  6. 转:在Linux中Oracle安装成功后,首次启动使用时,会出现的一些问题总结和解决办法...
  7. Java 面试——数据类型计算与拆箱装箱
  8. office 2010安装包
  9. tensorflow2 unet加载自己的图像进行训练
  10. CppCheck C++静态代码检查工具在Visual Studio(VS)下的配置和使用
  11. 基于51单片机的步进电机驱动程序
  12. vue中组件根元素添加样式无效
  13. Codeforces Round 701 Multiples and Power Differences
  14. 洗碗机,加速中国化才能更适合中国厨房
  15. 【java学习】集合框架
  16. 谈谈HTTP协议中的短轮询、长轮询、长连接和短连接
  17. 华为OD机试真题 Python 实现【最快到达医院的方法】【2023 Q1 | 100分】
  18. linux命令忽略大小写zip,Linux基础命令---unzip
  19. 普通程序员的出路是什么?
  20. 曙光服务器制作raid文档,曙光服务器制作RAID.docx

热门文章

  1. STM32驱动ST7789V2 tft屏幕
  2. 詹姆斯高斯林_詹姆斯·高斯林(James Gosling)警告《银翼杀手》的未来
  3. 如何用PYTHON代码写出音乐
  4. (转)慈不掌兵、义不养财
  5. 小明加密通道进入_德州人行通道闸哪个牌子好
  6. Python学习 Day31 JS类数组对象
  7. ucos-III前言
  8. 志翔科技亮相2022数博会 工业大数据技术支撑电力数智化
  9. R语言常微分方程数值解海强作业
  10. 卡方检验及R语言实现