转载链接:https://blog.csdn.net/qq_41045774/article/details/92851175

文章目录

    • 3设备用root账户
    • 永久主机名设置
    • 静态ip地址
    • 配置免密登录
    • Hadoop和Java的安装 加入环境变量
    • 以下是master 6个文件配置
    • 还有4个配置
    • 主机格式化namenode
    • slave1,slave2配置
    • 在master主机 开启集群
    • **问题
  • 默认端口

3设备用root账户

三台虚拟机:master,slave1,slave2
192.168.199.130 master
192.168.199.131 slave1
192.168.199.132 slave2

永久主机名设置

vi /etc/hostname 然后重启
https://blog.csdn.net/u014204541/article/details/80761165

静态ip地址

centos https://mp.csdn.net/mdeditor/92839899

ubuntu https://mp.csdn.net/mdeditor/93243251

配置免密登录

去掉 127.0.开头的和主机名的映射,不然Hadoop 拒绝远程 9000 端口访问
https://blog.csdn.net/mzjwx/article/details/78547573
vim /etc/hosts
192.168.199.130 master
192.168.199.131 slave1
192.168.199.132 slave2
每台设备都这样操作一下

ssh-keygen -t rsa
ssh-copy-id -i ~/.ssh/id_rsa.pub root@master0
ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave1
ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave2
每台设备都这样操作一下

Hadoop和Java的安装 加入环境变量

centos
[root@localhost hadoop-3.1.2]# vim /etc/profile

JAVA_HOME=/usr/local/software/jdk1.8.0_212
JRE_HOME=/usr/local/software/jdk1.8.0_212/jre
CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export JAVA_HOME JRE_HOME CLASS_PATH PATH
export JAVA_HOME=/usr/local/software/jdk1.8.0_212
export HADOOP_HOME=/usr/local/software/hadoop-3.1.2
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin#以下看情况添加
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

环境变量生效source /etc/profile
ubuntu vim ~/.barshrc source ~/.bashrc

以下是master 6个文件配置

cd /usr/local/software/hadoop-3.1.2
1 [root@cent hadoop-3.1.2]# vim etc/hadoop/hadoop-env.sh

export JAVA_HOME=/usr/local/software/jdk1.8.0_212
export HADOOP_HOME=/usr/local/software/hadoop-3.1.2
export PATH=$PATH:/usr/local/software/hadoop-3.1.2/bin
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"

2 vim etc/hadoop/core-site.xml 。。。和namenode有关
master是主机名,code1这里不改没关系,表示只配置一个hdfs,即namenode,也可以配置2个hdfs,即code1会开启一个namenode
这个hfds地址和hbase-site.xml中的一致

<configuration><!-- master主机名 --><property><name>fs.defaultFS</name><value>hdfs://master:8020</value>      文件系统默认8020端口,hbase.rootdir同</property><!-- Size of read/write buffer used in SequenceFiles. --><property><name>io.file.buffer.size</name><value>131072</value></property>====下面不要设置了,存储dfs下面的namenode和datanode的 tmp文件在开启集群完毕后,就没有了,
====若是DataNode节点没起,都没法找到tmp文件<!-- 指定hadoop临时目录,自行创建,不创建,系统默认tmp,每次都会清空,这样就会报错  --><property><name>hadoop.tmp.dir</name><value>/usr/local/softwre/hadoop-3.1.2/tmp</value></property>
</configuration>

3 vim etc/hadoop/hdfs-site.xml

<configuration><property><name>dfs.replication</name><value>1</value></property><property><name>dfs.datanode.data.dir</name><value>/usr/local/software/hadoop-3.1.2/dfs/data</value></property><property><name>dfs.namenode.name.dir</name><value>/usr/local/software/hadoop-3.1.2/dfs/name</value></property>
</configuration>

``
4 vim etc/hadoop/mapred-site.xml

        <property><name>mapreduce.framework.name</name><value>yarn</value></property>

5 vim etc/hadoop/yarn-site.xml 与MapReduce有关

        <property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property>                                                       <name>yarn.nodemanager.vmem-check-enabled</name><value>false</value></property><!-- 针对mapreduce报错的配置 --><property><name>mapreduce.application.classpath</name><value>/usr/local/software/hadoop-3.1.2/share/hadoop/mapreduce/*,/usr/local/software/hadoop-3.1.2/share/hadoop/mapreduce/lib/*</value></property>

6 [root@cent hadoop-3.1.2]# vim etc/hadoop/workers

slave1   ip 地址
slave2   ip地址

还有4个配置

[root@cent hadoop-3.1.2]# vim sbin/start-dfs.sh
[root@cent hadoop-3.1.2]# vim sbin/stop-dfs.sh

HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

[root@cent hadoop-3.1.2]# vim sbin/start-yarn.sh
[root@cent hadoop-3.1.2]# vim sbin/stop-yarn.sh

YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

主机格式化namenode

hadoop namenode -format

slave1,slave2配置

除了 [root@cent hadoop-3.1.2]# vim etc/hadoop/workers , vim etc/hadoop/mapred-site.xml, vim etc/hadoop/yarn-site.xml 不用配置。其他都要。也要主机格式化namenode

1、slave1,slave2可查[root@cent hadoop-3.1.2]# cd logs文件 看报错
或者namenode 格式化 看报错

2、slave: mv: 无法获取"/usr/local/software/hadoop-3.1.2/logs/hadoop-root-nodemanager-slave.out.4" 的文件状态(stat): 没有那个文件或目录,我把vim etc/hadoop/mapred-site.xml 配置删了,就不报了。但一会又报了,抽风了

在master主机 开启集群

start-all.sh

jps检查

主机如下
4210 NodeManager
4035 ResourceManager
3508 DataNode
25716 Jps
3764 SecondaryNameNode
3337 NameNode

slave如下
9936 Jps
9077 DataNode
9257 NodeManager

感谢 https://blog.csdn.net/qq_25863199/article/details/88791498


**问题

问题一 格式化后,datanode起不来** .hadoop namenode多次格式化可能导致的问题
报错java.io.IOException: Incompatible clusterIDs in /usr/local/softwre/hadoop-3.1.2/tmp/dfs/data: namenode clusterID = CID-a36b2872-1780-4854-97c8-18c23a1bb054; datanode clusterID = CID-2c83826e-89bb-4397-b59d-a589381acf54
解决 https://blog.csdn.net/cl723401/article/details/82892703
有时hadoop-3.1.2只有tmpw文件,conf bin都没了,等一会儿就有了

总结,datanode启动时会检查并匹配namenode的版本文件里的clusterID,如果两者不匹配,就会出现"Incompatible clusterIDs"的异常。
…格式化前,删除hdfs的tmp文件,和储存namenode和datanode的目录,不然系统格式化后,不会自动删除格式化前的这些文件,还会生成新的这些文件,前后clusterID会冲突
https://www.cnblogs.com/wangshen31/p/9900987.html
https://www.cnblogs.com/neo98/articles/6305999.html
首先确认下master和slave的hdfs-site.xml配置中的dfs.namenode.name.dir目录下的current/VERSION文件是否一致,可以直接拷贝成一样的,再重启集群

cat /usr/local/software/hadoop-3.1.2/dfs/name/current/VERSION
vim /usr/local/software/hadoop-3.1.2/dfs/data/current/VERSION
data里的clusterID修改成namel里的clusterID

默认端口

hadoop 9870
hbase   8020

hadoop3.1.2 配置 3台 完全分布式相关推荐

  1. Ubuntu系统安装Hadoop3.1.3并进行单机/伪分布式配置

    Ubuntu系统安装Hadoop3.1.3并进行单机/伪分布式配置 文章目录 Ubuntu系统安装Hadoop3.1.3并进行单机/伪分布式配置 前言 详细流程 创建Hadoop用户 安装Java 配 ...

  2. 大数据-安装 Hadoop3.1.3 详细教程-单机/伪分布式配置(Centos)

    Centos 7 安装 Hadoop3.1.3 详细教程 前言 00 需准备 01 需掌握 一.准备工作 00 环境 01 创建 hadoop 用户 02 修改 hadoop 用户权限 03 切换为 ...

  3. 利用ZooKeeper框架在Vmware虚拟机中搭建3台Linux分布式集群

    利用ZooKeeper框架在Vmware虚拟机中搭建3台Linux分布式集群 概述 配置 具体步骤 node1虚拟机制作 安装及固定IP 关闭防火墙 JDK安装 关闭SELinux 虚拟机克隆 固定I ...

  4. Exchange2003-2010迁移系列之四,配置第一台Exchange CAS/HUB服务器

    配置第一台CAS/HUB      关于Cas/hub的配置请大家详见前面关于Ex2010的部署(两个配置基本相同在这里就不做详细的解说了)下面关于Cas的配置在前面已经提到了但是下面是另一种新的方法 ...

  5. 如何配置一台深度学习工作站?

    这篇文章主要介绍的是家用的深度学习工作站,典型的配置有两种,分别是一个 GPU 的机器和四个 GPU的机器.如果需要更多的 GPU 可以考虑配置两台四个 GPU 的机器. 如果希望一台机器同时具备 6 ...

  6. 如何配置一台适用于深度学习的工作站?

    问题详情: 如何配置一台适用于深度学习的工作站? 刚买两块Titan Z GPU准备搞搞深度学习,结果原来的工作站功率不够,带不动,所以准备组装一台新工作站.求大神们给点意见,最好给个完整的list, ...

  7. Huawei交换机配置两台交换机堆叠示例

    ****配置两台交换机堆叠示例(先配置后连线方式,推荐) 组网图形 图1 配置两台交换机堆叠组网图 组网需求 在一个新建的企业网络中,要求接入设备具有充足的端口数目,并且希望网络结构简单,易于配置和管 ...

  8. 如何配置一台计算机预计3500元,玩游戏用的电脑主机应该怎么配置?3500元组装游戏电脑主机配置推荐...

    本文转自:http://www.dn010.com/peizhi/950.html 玩游戏用的电脑主机应该怎么配置?喜欢玩游戏的朋友都想配置一台游戏电脑,今天电脑组装知识网给大家带来3500元组装游戏 ...

  9. html需要电脑什么配置,配置一台电脑需要什么 选择配置一台好的台式电脑

    台式电脑是我们家庭生活必备的电子产品之一,一般在购买笔记本的时候,我们需要做的就是仔细对比它们的参数配置和价格.而台式电脑则不一样,我们可以根据自己的需求,对计算机硬件的选择有很大的自由.那么我们要怎 ...

最新文章

  1. Android OpenCV 边缘检测 Canny 的使用
  2. 《Linux From Scratch》第三部分:构建LFS系统 第八章:让LFS系统可引导 - 8.2. 创建 /etc/fstab 文件...
  3. iOS 11开发教程(二十)iOS11应用视图美化按钮之设置按钮的状态
  4. 会议论文影响因子多少_中国学术期刊影响因子年报(2020版)发布|中国心血管杂志影响力指数3年连升...
  5. 状压DP UVA 10817 Headmaster's Headache
  6. (机器学习之算法)凸优化
  7. 苹果6s最大屏幕尺寸_iPhone SE /iPhone 6s /5s对比图赏与屏幕报告
  8. 如何准备校招技术面试
  9. 怎么用计算机弹出soldout,关于sellout和soldout。
  10. 计算机系统维护课程设计报告,计算机系统维护工程(第2版)
  11. [Deeplearning]对比散度算法(CD算法)
  12. 爱博精电亮相四川省节能环保品牌推广全川行——乐山站
  13. 初识Ionic 和APPframework
  14. understand学习
  15. 2021github仓库操作流程手册指南
  16. Microsonic mic+35/D/TC超声波传感器技术文章
  17. 基于深度指标的网络脆弱性攻击代价定量评估方法
  18. 果数据库被锁了,查询并杀死对应的进程
  19. 微信小程序上拉刷新下拉加载
  20. java实现简单的订餐系统(面向对象+数组)

热门文章

  1. 山东大学 2020级数据库系统 实验二
  2. 滑动轨迹 曲线 python_python – 计算轨迹(路径)中的转折点/枢轴点
  3. java 文件与base64_java之文件与base64字符之间的相互转换
  4. 图解leetcode初级算法python版 pdf_图解LeetCode初级算法(Python版)
  5. 【Python爬虫】requests与urllib库的区别
  6. RuntimeError: Working outside of request context. This typically means that you attempted to use fun
  7. 037_自动添加防火墙规则,开启某些服务或端口(适用于 RHEL7)
  8. 深度优先搜索----poj 1321棋盘问题
  9. for语句中声明变量
  10. Fedora-19安装texlive2013并配置中文