**

伪分布式集群、完全分布式搭建步骤详情

4.1 伪分布式模式介绍

1.特点- 在一台机器上安装,使用的是分布式思想,即分布式文件系统,非本地文件系统。- Hdfs涉及到的相关守护进程(namenode,datanode,secondarynamenode)都运行在一台机器上,都是独立的java进程。
2. 用途比Standalone mode 多了代码调试功能,允许检查内存使用情况,HDFS输入输出,以及其他的守护进程交互。

4.2 平台软件说明

- 操作系统:      win10/win7
- 虚拟软件:         VMware14
- 虚拟机:           CentOS_7.7_64_master   192.168.10.200
- 软件包存储路径:    /opt/software/
- 软件安装路径:      /opt/apps/
- Jdk:             jdk-8u221-linux-x64.tar.gz
- Hadoop:          hadoop-2.7.6.tar.gz
- 用户:             root

4.3 伪分布式环境需求及搭建:

4.3.1 环境需求:

--1. 确保防火墙是关闭的.
--2. NAT模式和静态IP的确定 (192.168.10.200)
--3. 确保/etc/hosts文件里 ip和hostname的映射关系
--4. 确保免密登陆localhost有效
--5. jdk和hadoop的环境变量配置

4.3.2 防火墙关闭确认

[root@master ~]# systemctl stop firewalld
[root@master ~]# systemctl disable firewalld#最好也把selinux关闭掉,这是linux系统的一个安全机制,进入文件中将SELINUX设置为disabled
[root@master ~]# vi /etc/selinux/config
.........
SELINUX=disabled
.........

4.3.3 配置/etc/hosts文件

-- 进入hosts文件,配置一下ip和hostname
[root@master ~]# sudo vi /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6192.168.81.200 master     <=添加本机的静态IP和本机的主机名之间的映射关系

4.3.4 确保ssh对localhost的免密登陆认证有效

-1. 使用rsa加密技术,生成公钥和私钥。一路回车即可
[root@master ~]# ssh-keygen -t rsa
-2. 进入~/.ssh目录下,将id_rsa.pub复制一份文件,文件名为authorized_keys。保证此文件的权限是600
[root@master ~]# cd ~/.ssh
[root@master .ssh]# cp id_rsa.pub authorized_keys或者使用ssh-copy-id命令
[root@master .ssh]# ssh-copy-id -i id_ras.pub root@master
-3. 进行验证:
[hadoop@master .ssh]# ssh localhost
#输入yes后,不提示输入密码就对了

4.3.5 安装Jdk和Hadoop,配置相关环境变量

-1. 上传和解压两个软件包
[root@master ~]# cd /opt/software/
[root@master software]# tar -zxvf jdk-8u221-linux-x64.tar.gz -C /opt/apps/
[root@master software]# tar -zxvf hadoop-2.7.6.tar.gz -C /opt/apps/-2. 进入apps里,给两个软件更名
[root@master software]# cd /opt/apps/
[root@master apps]# mv jdk1.8.0_221/  jdk
[root@master apps]# mv hadoop-2.7.6/ hadoop-3. 配置环境变量
[hadoop@master apps]# vi /etc/profile.....省略...........#java environment
export JAVA_HOME=/opt/apps/jdk
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH#hadoop environment
export HADOOP_HOME=/opt/apps/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

4.4 伪分布式相关文件的配置

4.4.1 core-site.xml的配置

[root@master ~]# cd $HADOOP_HOME/etc/haoop
[root@master hadoop]# vi core-site.xml<configuration><!-- 配置分布式文件系统的schema和ip以及port,默认8020--><property><name>fs.defaultFS</name><value>hdfs://localhost/</value></property>
</configuration>扩展: hadoop1.x的默认端口是9000,hadoop2.x的默认端口是8020,使用哪一个都可以

4.4.2 hdfs-site.xml的配置:

[root@master hadoop]# vi hdfs-site.xml
<configuration><!-- 配置副本数,注意,伪分布模式只能是1。--><property><name>dfs.replication</name><value>1</value></property>
</configuration>

4.4.3 hadoop-env.sh的配置:指定jdk的环境

[root@master hadoop]# vi hadoop-env.sh
................
# The java implementation to use.
export JAVA_HOME=/opt/apps/jdk
..................

4.5 格式化NameNode

4.5.1 格式化命令

[root@master hadoop]# hdfs namenode -format

4.6 启动HDFS

4.6.1 启动伪分布式

[root@master hadoop]# start-dfs.sh

4.6.3 jps命令查看守护进程

从上图我们可以看到,启动脚本会开启分布式文件系统上的相关进程:

namenode
datanode
secondary namenode

4.7 WebUI_50070

可以在浏览器上输入:192.168.10.200:50070 来查看一下伪分布式集群的信息
--1. 浏览一下页面上提示的ClusterID,BlockPoolID
--2. 查看一下活跃节点(Live Nodes)的个数,应该是1个

4.8 程序案例演示:wordcount程序

4.8.1 准备要统计的两个文件,存储到~/data/下

--1. 创建data目录
[root@master hadoop]# mkdir ~/data
--2. 将以下两个文件上传到data目录下
- poetry1.txt
- poetry2.txt

4.8.2 在hdfs上创建存储目录

[root@master hadoop]# hdfs dfs -mkdir /input

4.8.3 将本地文件系统上的上传到hdfs上,并在web上查看一下

[root@master hadoop]$ hdfs dfs -put ~/data/poetry* /input/

4.8.4 运行自带的单词统计程序wordcount

[root@master hadoop]# cd $HADOOP_HOME
[root@master hadoop]# hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.6.jar  wordcount /input /out

效果如下:

4.8.5 查看webui

4.8.6 查看part-r-00000文件

[root@master hadoop]# hdfs dfs -cat /out/part-r-00000

: 安装模式之完全分布式集群

5.1 完全分布式模式介绍

完全分布式,指的是在真实环境下,使用多台机器,共同配合,来构建一个完整的分布式文件系统。
在真实环境中,hdfs中的相关守护进程也会分布在不同的机器中,比如:
-1. namenode守护进程尽可能的单独部署在一台硬件性能相对来说比较好的机器中。
-2. 其他的每台机器上都会部署一个datanode守护进程,一般的硬件环境即可。
-3. secondarynamenode守护进程最好不要和namenode在同一台机器上。

5.2 平台软件说明

- 操作系统:      win10/win7
- 虚拟软件:         VMware14
- 虚拟机:           主机名        IPmaster        192.168.10.200slave1        192.168.10.201slave2        192.168.10.202
- 软件包存储路径:    /opt/software/
- 软件安装路径:      /opt/apps/
- Jdk:             jdk-8u221-linux-x64.tar.gz
- Hadoop:          hadoop-2.7.6.tar.gz
- 用户:             root切记,切记,切记:实际生产环境中,我们不会使用root用户来搭建和管理hdfs,而是使用普通用户。这里为了方便学习,我们才使用的root用户。

5.3 守护进程布局

我们搭建hdfs的完全分布式,顺便搭建一下yarn。hdfs和yarn的相关守护进程的布局如下:

master:  namenode,datanode,ResourceManager,nodemanager
slave1: datanode,nodemanager,secondarynamenode
slave2: datanode,nodemanager

5.4 完全分布式环境需求和搭建(重点)

5.4.1 环境需求说明:

-1. 三台机器的防火墙必须是关闭的.
-2. 确保三台机器的网络配置畅通(NAT模式,静态IP,主机名的配置)
-3. 确保/etc/hosts文件配置了ip和hostname的映射关系
-4. 确保配置了三台机器的免密登陆认证(克隆会更加方便)
-5. 确保所有机器时间同步
-6. jdk和hadoop的环境变量配置

5.4.2 关闭防火墙

[root@master ~]# systemctl stop firewalld
[root@master ~]# systemctl disable firewalld#最好也把selinux关闭掉,这是linux系统的一个安全机制,进入文件中将SELINUX设置为disabled
[root@master ~]# vi /etc/selinux/config
.........
SELINUX=disabled
.........

情况说明: 如果安装好三台机器,三台机器的防火墙都需要单独关闭和设置开机不启动。如果准备使用克隆方式,只关闭master机器即可。下面的配置也是如此。

5.4.3 静态IP和主机名配置

--1. 配置静态IP(确保NAT模式)
[root@master ~]# vi /etc/sysconfig/network-scripts/ifcfg-ens33
............
BOOTPROTO=static           #将dhcp改为static
............
ONBOOT=yes                 #将no改为yes
IPADDR=192.168.10.200      #添加IPADDR属性和ip地址
PREFIX=24                  #添加NETMASK=255.255.255.0或者PREFIX=24
GATEWAY=192.168.10.2       #添加网关GATEWAY
DNS1=192.168.10.2          #添加DNS1和备份DNS
DNS2=8.8.8.8
DNS3=114.114.114.114--2. 重启网络服务
[root@master ~]# systemctl restart network
或者
[root@master ~]# service network restart--3. 修改主机名(如果修改过,请略过这一步)
[root@localhost ~]# hostnamectl set-hostname master
或者
[root@localhost ~]# vi /etc/hostname
master

注意:配置完ip和主机名后,最好reboot一下

5.4.4 配置/etc/hosts文件

[root@master ~]#  vi /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6192.168.81.200 master     <=添加本机的静态IP和本机的主机名之间的映射关系

5.4.5 免密登陆认证

-1. 使用rsa加密技术,生成公钥和私钥。一路回车即可
[root@master ~]# Cd ~
[root@master ~]# ssh-keygen -t rsa
-2. 进入~/.ssh目录下,将id_rsa.pub复制一份文件,文件名为authorized_keys。保证此文件的权限是600
[root@master ~]# cd ~/.ssh
[root@master .ssh]# cp id_rsa.pub authorized_keys或者使用ssh-copy-id命令
[root@master .ssh]# ssh-copy-id -i id_rsa.pub root@master
-3. 进行验证
[hadoop@master .ssh]# ssh localhost
[hadoop@master .ssh]# ssh master
[hadoop@master .ssh]# ssh 0.0.0.0
#输入yes后,不提示输入密码就对了注意:三台机器提前安装好的情况下,需要同步公钥文件。如果使用克隆技术。那么使用同一套密钥对就方便多了。

5.4.6 时间同步

可以参考Linux文档中的时间同步或者搭建局域网时间服务器。

5.4.7 安装Jdk和Hadoop,配置相关环境变量

-1. 上传和解压两个软件包
[root@master ~]# cd /opt/software/
[root@master software]# tar -zxvf jdk-8u221-linux-x64.tar.gz -C /opt/apps/
[root@master software]# tar -zxvf hadoop-2.7.6.tar.gz -C /opt/apps/-2. 进入apps里,给两个软件更名
[root@master software]# cd /opt/apps/
[root@master apps]# mv jdk1.8.0_221/  jdk
[root@master apps]# mv hadoop-2.7.6/ hadoop-3. 配置环境变量
[hadoop@master apps]# vi /etc/profile.....省略...........#java environment
export JAVA_HOME=/opt/apps/jdk
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH#hadoop environment
export HADOOP_HOME=/opt/apps/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

5.5 Hadoop的配置文件

5.5.1 提取四个默认配置文件

第一步:将hadoop安装包解压到pc端的一个目录下,然后在hadoop-2.7.6目录下创建一个default目录,用于存储默认配置文件。
第二步:进入hadoop的share目录中的doc子目录,搜索default.xml。将以下四个默认的xml文件copy到default目录中,方便以后查看

5.5.2 $HADOOP_HOME/etc/hadoop/目录下的用户自定义配置文件

- core-site.xml
- hdfs-site.xml
- mapred-site.xml   复制mapred-site.xml.template而来
- yarn-site.xml

5.5.3 属性的优先级

代码中的属性>xxx-site.xml>xxx-default.xml

5.6 完全分布式文件配置(重点)

配置前说明:我们先在master机器节点上配置hadoop的相关属性。

5.6.1 配置core-site.xml文件

[root@master ~]# cd $HADOOP_HOME/etc/hadoop/
[root@master hadoop]# vi core-site.xml
<configuration><!-- hdfs的地址名称:schame,ip,port--><property><name>fs.defaultFS</name><value>hdfs://master:8020</value></property><!-- hdfs的基础路径,被其他属性所依赖的一个基础路径 --><property><name>hadoop.tmp.dir</name><value>/opt/apps/hadoop/tmp</value></property>
</configuration>

参考:core-default.xml

5.6.2 再配置hdfs-site.xml文件

[root@master hadoop]#vi hdfs-site.xml
<configuration><!-- namenode守护进程管理的元数据文件fsimage存储的位置--><property><name>dfs.namenode.name.dir</name><value>file://${hadoop.tmp.dir}/dfs/name</value></property><!-- 确定DFS数据节点应该将其块存储在本地文件系统的何处--><property><name>dfs.datanode.data.dir</name><value>file://${hadoop.tmp.dir}/dfs/data</value></property><!-- 块的副本数--><property><name>dfs.replication</name><value>3</value></property><!-- 块的大小--><property><name>dfs.blocksize</name><value>134217728</value></property><!-- secondarynamenode守护进程的http地址:主机名和端口号。参考守护进程布局--><property><name>dfs.namenode.secondary.http-address</name><value>slave1:50090</value></property>
</configuration>

参考:hdfs-default.xml

5.6.3 然后配置mapred-site.xml文件

如果只是搭建hdfs,只需要配置core-site.xml和hdfs-site.xml文件就可以了,但是我们过两天要学习的MapReduce是需要YARN资源管理器的,因此,在这里,我们提前配置一下相关文件。

[root@master hadoop]# cp mapred-site.xml.template  mapred-site.xml
[root@master hadoop]# vi mapred-site.xml
<configuration><!-- 指定mapreduce使用yarn资源管理器--><property><name>mapreduce.framework.name</name><value>yarn</value></property><!-- 配置作业历史服务器的地址--><property><name>mapreduce.jobhistory.address</name><value>master:10020</value>p</property><!-- 配置作业历史服务器的http地址--><property><name>mapreduce.jobhistory.webapp.address</name><value>master:19888</value></property>
</configuration>

参考:mapred-default.xml

5.6.4 配置yarn-site.xml文件

[root@master hadoop]# vi yarn-site.xml
<configuration><!-- 指定yarn的shuffle技术--><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><!-- 指定resourcemanager的主机名--><property><name>yarn.resourcemanager.hostname</name><value>master</value></property>
</configuration>

参考:yarn-default.xml

5.6.5 配置hadoop-env.sh脚本文件

[root@master hadoop]# vi hadoop-env.sh
.........
# The java implementation to use.
export JAVA_HOME=/opt/apps/jdk
.........

5.6.6 配置slaves文件,此文件用于指定datanode守护进程所在的机器节点主机名

[root@master hadoop]# vi slaves
master
slave1
slave2

5.6.7 配置yarn-env.sh文件,此文件可以不配置,不过,最好还是修改一下yarn的jdk环境比较好

[root@master hadoop]# vi yarn-env.sh
........省略........
# some Java parameters
export JAVA_HOME=/opt/apps/jdk
........省略........

5.7 另外两台机器配置说明

当把master机器上的hadoop的相关文件配置完毕后,我们有以下两种方式来选择配置另外几台机器的hadoop.

方法1:“scp”进行同步

提示:本方法适用于多台虚拟机已经提前搭建出来的场景。--1. 同步hadoop到slave节点上
[root@master ~]# cd /opt/apps
[root@master apps]# scp -r ./hadoop slave1:/opt/apps/
[root@master apps]# scp -r ./hadoop slave2:/opt/apps/--2. 同步/etc/profile到slave节点上
[root@master apps]# scp /etc/profile slave1:/etc/
[root@master apps]# scp /etc/profile slave2:/etc/--3. 如果slave节点上的jdk也没有安装,别忘记同步jdk。
--4. 检查是否同步了/etc/hosts文件

**方法2:**克隆master虚拟机

提示:本方法适用于还没有安装slave虚拟机的场景。通过克隆master节点的方式,来克隆一个slave1和slave2机器节点,这种方式就不用重复安装环境和配置文件了,效率非常高,节省了大部分时间(免密认证的秘钥对都是相同的一套)。--1. 打开一个新克隆出来的虚拟机,修改主机名
[root@master ~]# hostnamectl set-hostname slave1
--2. 修改ip地址
[root@master ~]# vi /etc/sysconfig/network-scripts/ifcfg-ens33
.........省略.........
IPADDR=192.168.10.201              <==修改为slave1对应的ip地址
.........省略........
--3. 重启网络服务
[root@master ~]# systemctl restart network
--4. 其他新克隆的虚拟机重复以上1~3步
--5. 免密登陆的验证从master机器上,连接其他的每一个节点,验证免密是否好使,同时去掉第一次的询问步骤--6. 建议:每台机器在重启网络服务后,最好reboot一下。

5.8 格式化NameNode

**1)**在master机器上运行命令

[root@master ~]# hdfs namenode -format

注意,注意,注意: 如果你是从伪分布式过来的,最好先把伪分布式的相关守护进程关闭:stop-all.sh

**2)**格式化的相关信息解读

--1. 生成一个集群唯一标识符:clusterid
--2. 生成一个块池唯一标识符:BlockPoolId
--3. 生成namenode进程管理内容(fsimage)的存储路径:默认配置文件属性hadoop.tmp.dir指定的路径下生成dfs/name目录
--4. 生成镜像文件fsimage,记录分布式文件系统根路径的元数据--5. 其他信息都可以查看一下,比如块的副本数,集群的fsOwner等。

3)目录里的内容查看

5.9 启动集群

5.9.1 启动脚本和关闭脚本介绍

1. 启动脚本-- start-dfs.sh           :用于启动hdfs集群的脚本-- start-yarn.sh      :用于启动yarn守护进程-- start-all.sh            :用于启动hdfs和yarn
2. 关闭脚本-- stop-dfs.sh           :用于关闭hdfs集群的脚本-- stop-yarn.sh           :用于关闭yarn守护进程-- stop-all.sh         :用于关闭hdfs和yarn
3. 单个守护进程脚本-- hadoop-daemons.sh :用于单独启动或关闭hdfs的某一个守护进程的脚本-- hadoop-daemon.sh        :用于单独启动或关闭hdfs的某一个守护进程的脚本reg:hadoop-daemon.sh [start|stop] [namenode|datanode|secondarynamenode]-- yarn-daemons.sh  :用于单独启动或关闭hdfs的某一个守护进程的脚本-- yarn-daemon.sh      :用于单独启动或关闭hdfs的某一个守护进程的脚本reg:yarn-daemon.sh [start|stop] [resourcemanager|nodemanager]

5.9.2 启动hdfs

**1)**使用start-dfs.sh,启动 hdfs。

**2)**启动过程解析:

- 启动集群中的各个机器节点上的分布式文件系统的守护进程一个namenode和resourcemanager以及secondarynamenode多个datanode和nodemanager
- 在namenode守护进程管理内容的目录下生成edit日志文件
- 在每个datanode所在节点下生成${hadoop.tmp.dir}/dfs/data目录,参考下图:

注意,注意,注意

如果哪台机器的相关守护进程没有开启,那么,就查看哪台机器上的守护进程对应的日志log文件,注意,启动脚本运行时提醒的日志后缀是*.out,而我们查看的是*.log文件。此文件的位置:${HADOOP_HOME}/logs/里

**3)**jps查看进程

--1. 在master上运行jps指令,会有如下进程namenodedatanode
--2. 在slave1上运行jps指令,会有如下进程secondarynamenodedatanode
--3. 在slave2上运行jps指令,会有如下进程datanode

5.9.3 启动yarn

**1)**使用start-yarn.sh脚本,参考图片

**2)**jps查看

--1. 在master上运行jps指令,会多出有如下进程resoucemanagernodemanager
--2. 在slave1上运行jps指令,会多出有如下进程nodemanager
--3. 在slave2上运行jps指令,会多出有如下进程nodemanager

5.9.4 webui查看

1. http://192.168.43.130:50070
2. http://192.168.43.130:8088

5.10 程序案例演示:wordcount

1) 准备要统计的两个文件,存储到~/data/下

--1. 创建data目录
[root@master hadoop]# mkdir ~/data
--2. 将以下两个文件上传到data目录下
- poetry1.txt
- poetry2.txt

2) 在hdfs上创建存储目录

[root@master hadoop]# hdfs dfs -mkdir /input

3) 将本地文件系统上的上传到hdfs上,并在web上查看一下

[root@master hadoop]$ hdfs dfs -put ~/data/poetry* /input/

4) 运行自带的单词统计程序wordcount

[root@master hadoop]# cd $HADOOP_HOME
[root@master hadoop]# hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.6.jar  wordcount /input /out

效果如下:

5) 查看webui

6) 查看part-r-00000文件

[root@master hadoop]# hdfs dfs -cat /out/part-r-00000

5.11 启动脚本的解读

1. start-all.sh
2. start-dfs.sh
3. hadoop-daemon.sh

5.12 集群守护进程不能开启的情况

1. 格式化集群时,报错原因- 当前用户使用不当- /etc/hosts里的映射关系填写错误- 免密登录认证异常- jdk环境变量配置错误- 防火墙没有关闭
2. namenode进程没有启动的原因:- 当前用户使用不当- 重新格式化时,忘记删除${hadoop.tmp.dir}/目录下的内容- 网络震荡,造成edit日志文件的事务ID序号不连续
3. datanode出现问题的原因- /etc/hosts里的映射关系填写错误- master免密登录此节点异常- 重新格式化时,忘记删除${hadoop.tmp.dir}/目录下的内容,造成datanode的唯一标识符不在新集群中。
4. 上述问题暴力解决办法:重新格式化如果想重新格式化,那么需要先删除每台机器上的${hadoop.tmp.dir}指定路径下的所有内容,然后再格式化:最好也把logs目录下的内容也清空,因为日志内容已经是前一个废弃集群的日志信息了,留着也无用。

5.13 HDFS的常用shell命令

--1. 在命令行中输入hdfs,回车后,就会提示hdfs后可以使用哪些命令,其中有一个是dfs。
--2. 在命令行中输入hdfs dfs,回车后,就会提示dfs后可以添加的一些常用shell命令

常用shell命令分类如下:

注意:分布式文件系统的路径在命令行中 要从/开始写,即绝对路径--1. 创建目录
[-mkdir [-p] <path> ...]  #在分布式文件系统上创建目录  -p,多层级创建--2. 上传指令
[-put [-f] [-p] [-l] <localsrc> ... <dst>]   #将本地文件系统的文件上传到分布式文件系统
[-moveFromLocal <localsrc> ... <dst>]       #将本地文件系统的文件上传到分布式文件系统
[-copyFromLocal [-f] [-p] [-l] <localsrc> ... <dst>]--3. 查看指令
[-ls [-d] [-h] [-R] [<path> ...]]     #查看分布式文件系统的目录里内容
[-cat [-ignoreCrc] <src> ...]         #查看分布式文件系统的文件内容
[-tail [-f] <file>]                       #查看分布式文件系统的文件内容 --4. 下载指令
[-copyToLocal [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
[-moveToLocal <src> <localdst>]
[-get [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]--5. 删除指令
[-rm [-f] [-r|-R] [-skipTrash] <src> ...]
[-rmdir [--ignore-fail-on-non-empty] <dir> ...]--6. 查看磁盘利用率和文件大小
[-df [-h] [<path> ...]] 查看分布式系统的磁盘利用率
[-du [-s] [-h] <path> ...]    #查看分布式系统上的文件大小  -h:human 以人类可读的方式显示--7. 向分布式文件系统中的文件里追加内容,不支持在中间随意增删改操作
[-appendToFile <localsrc> ... <dst>]--8. 修改权限的
[-chgrp [-R] GROUP PATH...]
[-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
[-chown [-R] [OWNER][:[GROUP]] PATH...]--9. 修改文件的副本数
[-setrep [-R] [-w] <rep> <path> ...]

点赞三连哦,关注我一起学习大数据吧,我会不定期更新更多!
如有疑问请指出,一一解答哦!!!嘤嘤嘤

伪分布式集群、完全分布式搭建步骤详情相关推荐

  1. Kettle分布式集群安装部署详细步骤和使用分布式Kettle集群示例

    Kettle分布式集群安装部署详细步骤和使用分布式Kettle集群示例 一.下载kettle和mysql驱动 二.相关技术博客 三.Kettle分布式集群环境准备 四.解压kettle 五.执行Kit ...

  2. linux lnmp分布式集群,LNMP 分布式集群(六):keepalived 高可用方案

    前言 LNMP 分布式集群的部署实践 系列文章: 衡量一个集群的高可用性在于没有单点故障,即其中任何一台服务器宕机都不会造成整个服务中断. 之前的LNMP分布式集群的实践中,显然在将Nginx作为负载 ...

  3. 利用ZooKeeper框架在Vmware虚拟机中搭建3台Linux分布式集群

    利用ZooKeeper框架在Vmware虚拟机中搭建3台Linux分布式集群 概述 配置 具体步骤 node1虚拟机制作 安装及固定IP 关闭防火墙 JDK安装 关闭SELinux 虚拟机克隆 固定I ...

  4. 【干货】Dask快速搭建分布式集群(大数据0基础可以理解,并使用!)

    非常开心,解决了很久都没有解决的问题 使用的语言: Python3.5 分布式机器: windows7 注意到,其实,通过这工具搭建分布式不需要管使用的电脑是什么系统. 分布式使用流程 Created ...

  5. minio分布式集群部署

    minio分布式集群部署 分布式 Minio 可以让你将多块硬盘或者多台服务器组成一个对象存储服务.由于硬盘分布在不同的节点上,分布式 Minio 避免了单点故障.MinioMinio分布式模式可以帮 ...

  6. docker安装clickhouse_Docker中安装ClickHouse,单机、集群、分布式

    Docker中安装ClickHouse 下文使用CH代替ClickHouse的称呼. 单机版本 docker run -d \ --name clickhouse-server \ -p 9000:9 ...

  7. 验证token,X_FORWARDED_FOR ,集群,分布式

    目录 自定义认证类,验证token 请求头中:X_FORWARDED_FOR 代之什么? 三种IP具体含义: 集群 ,分布式 集群 分布式 集群和分布式及其区别: 自定义认证类,验证token imp ...

  8. Hadoop单机/伪分布式集群搭建(新手向)

    此文已由作者朱笑笑授权网易云社区发布. 欢迎访问网易云社区,了解更多网易技术产品运营经验. 本文主要参照官网的安装步骤实现了Hadoop伪分布式集群的搭建,希望能够为初识Hadoop的小伙伴带来借鉴意 ...

  9. hadoop搭建伪分布式集群(centos7+hadoop-3.1.1)

    原文地址:https://www.cnblogs.com/zhengna/p/9316424.html Hadoop三种安装模式 搭建伪分布式集群准备条件 第一部分 安装前部署 1.查看虚拟机版本 2 ...

最新文章

  1. esxi 6.x 密码复杂度要求_还在为账号密码多而烦恼?
  2. C++运算符重载形式--成员函数or友元函数?
  3. excel打不开怎么修复_SD卡坏了怎么办?一招教你拯救文件!
  4. java 与 |与||的区别
  5. Annotation之一:Java Annotation基本功能介绍
  6. Linux源代码软件安装,Linux软件安装:源代码与软件安装
  7. ShopEx 中规格属性增加时,自动计算其对应的销售价格,同时注意模板中的变量间的计算
  8. an 转换器_400V耐压场效应管替代IRF730B型号参数,使用在DC-DC电源转换器。_场效应管吧...
  9. Java判断一个数是不是素数
  10. URL转码escape() encodeURI() encodeURIComponent()
  11. R语言meta包的预后meta分析复现
  12. maven下载安装配置3.5.2
  13. HNOI2015解题报告
  14. 浅谈图像识别技术原理与价值
  15. 【数据集】语义分割常用的数据集: Pascal VOC、Cityscape、MSCOCO
  16. Minecraft Mod 开发-技术支持与鸣谢
  17. 关注虚拟财富“.ME”域名的投资价值
  18. thrift序列化 java_JAVA RPC (五) 之thrift序列化RPC消息体
  19. 华为数通笔记-PPP
  20. 点击微信公众号菜单按钮 跳转网页授权登录

热门文章

  1. linux/mac vi命令详解
  2. 【转载】简评黑客利器——中国菜刀
  3. GHOST 博客安装中文全攻略
  4. 新城控股董事长王晓松:多措并举助推公司发展,商业板块表现良好
  5. python图像识别的学习
  6. 计算机安全反思报告书,计算机安全使用常识培训反思..doc
  7. 数据结构树高度_树数据结构的高度
  8. 【Obsidian\Typora\坚果云\阿里云OSS】零基础搭建自己的知识库,或者叫避坑指南
  9. [渝粤教育] 西南科技大学 经济法概论 在线考试复习资料2021版(1)
  10. 4G网关BL100链接私有云平台教程