一、准备至少三台Linux服务器及对应的jdk环境

1、服务器及jdk环境准备

服务器:至少三台Linux服务器

JDK环境:三台Linux服务器上都需要安装好jdk环境(jdk环境安装参考我的博客:https://blog.csdn.net/qq_26420601/article/details/109710153)

192.168.209.131 Linux服务器

192.168.209.133 Linux服务器

192.168.209.134 Linux服务器

2、zookeeper环境准备

分别在三台Linux服务器上安装Zookeeper。

请参考我的博客:Zookeeper之Linux本地模式安装部署(Zookeeper之Linux本地模式安装部署_梦想天涯~路在脚下的博客-CSDN博客)

只有在Linux系统中安装好了Zookeeper之后才能继续下面的分布式安装部署。

二、分布式安装部署

 1、分布式集群规划

在192.168.209.131、192.168.209.133、192.168.209.134三台服务器(作为Zookeeper的三个节点)上分别部署Zookeeper。

2、配置服务器编号

192.168.209.131服务器配置

在192.168.209.131服务器的 opt/module/apache-zookeeper-3.6.2-bin/zkData/ 目录下创建myid文件,并在文件中添加与server对应的编号 2(这个编号可以根据自己的需要去定义)

192.168.209.133服务器配置

在192.168.209.133服务器的 opt/module/apache-zookeeper-3.6.2-bin/zkData/ 目录下创建myid文件,并在文件中添加与server对应的编号 2(这个编号可以根据自己的需要去定义)

192.168.209.134服务器配置

在192.168.209.134服务器的 opt/module/apache-zookeeper-3.6.2-bin/zkData/ 目录下创建myid文件,并在文件中添加与server对应的编号 2(这个编号可以根据自己的需要去定义)

2、配置zoo.cfg文件

(1)192.168.209.131服务器zoo.cfg配置文件修改

重命名opt/module/apache-zookeeper-3.6.2-bin/conf/目录下的zoo_sample.cfg 为 zoo.cfg

执行命令:mv zoo_sample.cfg zoo.cfg

(2)修改zoo.cfg配置文件中内容

# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just
# example sakes.
dataDir=/opt/module/apache-zookeeper-3.6.2-bin/zkData
# the port at which the clients will connect
clientPort=2181
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
#
# Be sure to read the maintenance section of the
# administrator guide before turning on autopurge.
#
# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#
# The number of snapshots to retain in dataDir
#autopurge.snapRetainCount=3
# Purge task interval in hours
# Set to "0" to disable auto purge feature
#autopurge.purgeInterval=1## Metrics Providers
#
# https://prometheus.io Metrics Exporter
#metricsProvider.className=org.apache.zookeeper.metrics.prometheus.PrometheusMetricsProvider
#metricsProvider.httpPort=7000
#metricsProvider.exportJvmInfo=true
#######################cluster##########################
server.2=192.168.209.131:2888:3888
server.3=192.168.209.133:2888:3888
server.4=192.168.209.134:2888:3888

(3)配置参数解读

server.4=192.168.209.134:2888:3888   ==>    server.A=B:C:D。
A 是一个数字,表示这个是第几号服务器;
集群模式下配置一个文件 myid,这个文件在 dataDir 目录下,这个文件里面有一个数据就是 A 的值,Zookeeper 启动时读取此文件,拿到里面的数据与 zoo.cfg 里面的配置信息比较从而判断到底是哪个 server。 
B 是这个服务器的地址;
C 是这个服务器 Follower 与集群中的 Leader 服务器交换信息的端口;
D 是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的Leader,而这个端口就是用来执行选举时服务器相互通信的端口。
192.168.209.133和192.168.209.134服务器分别按照以上方式配置即可。
注意:
192.168.209.133服务器配置的server编号是 3
192.168.209.134服务器配置的server编号是 4
#######################cluster##########################
server.2=192.168.209.131:2888:3888
server.3=192.168.209.133:2888:3888
server.4=192.168.209.134:2888:3888

三、集群操作

分别启动三台服务器上的Zookeeper服务
注意:如果启动出现以下错误,说明Zookeeper服务是未启动成功的,解决办法:检查zoo.cfg配置文件是否正确或者服务器防火墙是否开启了2888端口和3888端口,因为这里的三台服务器相互之间要进行交互,所以必须要保证三台服务器交互之间的访问端口是开放的。
ZooKeeper JMX enabled by default
Using config: /opt/module/apache-zookeeper-3.6.2-bin/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Error contacting service. It is probably not running.
查看192.168.209.131服务器2888和3888端口是否已经添加并开放,可以看见我这里已经开启了2888和3888端口

如果没有开启2888端口和3888端口需要手动去开启一下防火墙端口

执行增加防火墙需要开启端口的命令:

firewall-cmd --add-port=2888/tcp --permanent

firewall-cmd --add-port=3888/tcp --permanent

然后重启防火墙,执行命令:firewall-cmd --reload

查看防火墙端口开启列表,执行命令:firewall-cmd --list-all

分别启动三台服务器上的Zookeeper服务

192.168.209.131服务器Zookeeper启动并查看启动状态

192.168.209.133服务器Zookeeper启动并查看启动状态

192.168.209.134服务器Zookeeper启动并查看启动状态

Zookeeper集群启动后,我们可以看见通过Zookeeper的内部选举机制决定了133服务器为leader,134和135服务器为follower。
至此,Linux系统中Zookeeper分布式集群搭建已经搭建完成了。

四、Zookeeper客户端启动及shell命令操作

Zookeeper客户端命令基本语法

基本语法命令 功能描述
heip 显示所有命令操作
ls path[watch] 使用ls命令来查看当前znode节点中所包含的内容
ls2 path[watch] 查看当前节点数据并能看到更新次数等数据
create

普通创建

-s   含有序列

-e   临时(重启或者超时小时)

get path[watch] 获得节点的值
set 设置节点的具体值
stat 查看节点状态
delete 删除节点
rmr 递归删除节点

1、启动Zookeeper客户端命令

./zkCli.sh 

2、显示所有操作命令

 help

3、查看当前znode中所包含的内容

ls /

4、查看当前节点详细数据,在最新版的Zookeeper该命令已经变为 ls -s path

ls2 / 

[zk: localhost:2181(CONNECTED) 1] ls2 /
[zookeeper]
cZxid = 0x0
ctime = Thu Jan 01 08:00:00 CST 1970
mZxid = 0x0
mtime = Thu Jan 01 08:00:00 CST 1970
pZxid = 0x0
cversion = -1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 0
numChildren = 1

5、分别创建2个普通节点

[zk: localhost:2181(CONNECTED) 3] create /sanguo "jinlian"
Created /sanguo
[zk: localhost:2181(CONNECTED) 4] create /sanguo/shuguo
"liubei"
Created /sanguo/shuguo

6、获得节点的值

[zk: localhost:2181(CONNECTED) 5] get /sanguo
jinlian
cZxid = 0x100000003
ctime = Wed Aug 29 00:03:23 CST 2018
mZxid = 0x100000003
mtime = Wed Aug 29 00:03:23 CST 2018
pZxid = 0x100000004
cversion = 1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 7
numChildren = 1
[zk: localhost:2181(CONNECTED) 6]
[zk: localhost:2181(CONNECTED) 6] get /sanguo/shuguo
liubei
cZxid = 0x100000004
ctime = Wed Aug 29 00:04:35 CST 2018
mZxid = 0x100000004
mtime = Wed Aug 29 00:04:35 CST 2018
pZxid = 0x100000004
cversion = 0
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 6
numChildren = 0

7、创建短暂节点

[zk: localhost:2181(CONNECTED) 7] create -e /sanguo/wuguo
"zhouyu"
Created /sanguo/wuguo

(1)在当前客户端是能查看到的

[zk: localhost:2181(CONNECTED) 3] ls /sanguo
[wuguo, shuguo]

(2)退出当前客户端然后再重启客户端

[zk: localhost:2181(CONNECTED) 12] quit
[atguigu@hadoop104 zookeeper-3.4.10]$ bin/zkCli.sh

(3)再次查看根目录下短暂节点已经删除

[zk: localhost:2181(CONNECTED) 0] ls /sanguo

8、创建带序号的节点

(1)先创建一个普通的根节点/sanguo/weiguo

[zk: localhost:2181(CONNECTED) 1] create /sanguo/weiguo
"caocao"
Created /sanguo/weiguo

(2)创建带序号的节点

[zk: localhost:2181(CONNECTED) 2] create -s
/sanguo/weiguo/xiaoqiao "jinlian"
Created /sanguo/weiguo/xiaoqiao0000000000
[zk: localhost:2181(CONNECTED) 3] create -s
/sanguo/weiguo/daqiao "jinlian"
Created /sanguo/weiguo/daqiao0000000001
[zk: localhost:2181(CONNECTED) 4] create -s
/sanguo/weiguo/diaocan "jinlian"
Created /sanguo/weiguo/diaocan0000000002

如果原来没有序号节点,序号从 0 开始依次递增。如果原节点下已有 2 个节点,则再排序时从 2 开始,以此类推。

9、修改节点数据值

[zk: localhost:2181(CONNECTED) 6] set /sanguo/weiguo "simayi"

10、节点的值变化监听

(1)在 192.168.209.133 主机上注册监听/sanguo 节点数据变化

[zk: localhost:2181(CONNECTED) 8] get /sanguo watch

(2)在 192.168.209.131 从机上修改/sanguo 节点的数据

[zk: localhost:2181(CONNECTED) 1] set /sanguo "xisi"

(3)观察 192.168.209.133 主机收到数据变化的监听

WATCHER::
WatchedEvent state:SyncConnected type:NodeDataChanged
path:/sanguo

11、节点删除

[zk: localhost:2181(CONNECTED) 4] delete /sanguo/jin

12、递归删除节点

[zk: localhost:2181(CONNECTED) 15] rmr /sanguo/shuguo

13、查看节点状态

[zk: localhost:2181(CONNECTED) 17] stat /sanguo
cZxid = 0x100000003
ctime = Wed Aug 29 00:03:23 CST 2018
mZxid = 0x100000011
mtime = Wed Aug 29 00:21:23 CST 2018
pZxid = 0x100000014
cversion = 9
dataVersion = 1
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 4
numChildren = 1

Zookeeper之Linux分布式集群搭建及客户端shell命令操作相关推荐

  1. Hadoop分布式集群搭建以及案例运行-fs操作

    Hadoop分布式集群搭建案例步骤(也可以叫分布式文件系统) 一:创建分布式集群环境 二:设置静态ip以及主机名与映射关系 三:创建用户.配置SSH无密登录 四:子机dn操作 五:配置主机jdk.ha ...

  2. 利用ZooKeeper框架在Vmware虚拟机中搭建3台Linux分布式集群

    利用ZooKeeper框架在Vmware虚拟机中搭建3台Linux分布式集群 概述 配置 具体步骤 node1虚拟机制作 安装及固定IP 关闭防火墙 JDK安装 关闭SELinux 虚拟机克隆 固定I ...

  3. zookeeper伪分布式集群搭建

    zookeeper集群搭建注意点: 配置数据文件myid1/2/3对应server.1/2/3 通过zkCli.sh -server [ip]:[port]检测集群是否配置成功. 第一步:首先我们将我 ...

  4. 阿里云ECS服务器部署HADOOP集群(三):ZooKeeper 完全分布式集群搭建

    本篇将在阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建的基础上搭建,多添加了一个 datanode 节点 . 1 节点环境介绍: 1.1 环境介绍: 服务器:三台阿里 ...

  5. Linux 系列(三)——Redis 分布式集群搭建

     在Redis的安装和部署(Linux)一文中详细介绍了在Linux环境中搭建Redis服务,本文将介绍关于Redis分布式 集群搭建细节. 一.Redis集群架构 1.Redis集群架构图 蓝色 ...

  6. 大数据分布式集群搭建(1)

    在学习了几天的hadoop分布式集群搭建之后想写写文章记录一下一路以来遇到的困难和解决方案. 闲话不多说,进入正题. 一.环境及准备 因为只有一台电脑,所以需要用虚拟机来模拟环境. 本地机器用到软件: ...

  7. java集群_Kafka多节点分布式集群搭建实现过程详解_java

    上一篇分享了单节点伪分布式集群搭建方法,本篇来分享一下多节点分布式集群搭建方法.多节点分布式集群结构如下图所示: 为了方便查阅,本篇将和上一篇一样从零开始一步一步进行集群搭建. 一.安装Jdk 具体安 ...

  8. hbase分布式集群搭建

    hbase和hadoop一样也分为单机版.伪分布式版和完全分布式集群版本,这篇文件介绍如何搭建完全分布式集群环境搭建. hbase依赖于hadoop环境,搭建habase之前首先需要搭建好hadoop ...

  9. Hadoop-HDFS详解与HA,完全分布式集群搭建(细到令人发指的教程)

    前言 本篇篇幅较长,有许多集群搭建干货,和枯燥乏味但是面试可能问到的理论知识. 思来想去不知道怎样才能鼓励自己加油学习,想想要面对的生活还是假吧意思打开学习视频吧. 目录 一.引入 hdfs是什么 h ...

最新文章

  1. TIOBE12月榜单:Java重回第二,Python有望四连冠年度语言
  2. 第三课《让简历有点色彩》
  3. codeforces 939C Convenient For Everybody 简直羞耻
  4. Vs code 02 配置非标准的C、C++的编译环境
  5. linux抓包命令tcptrace,每天学习一个命令:tcpdump 命令行下抓包
  6. python写spark_python开发sparkSQL应用
  7. Mac版微信支持朋友圈了!微信内测版体验感
  8. 深入解剖 linux内存管理之mmap
  9. 2019最新私塾在线高级java软件架构师培训项目实战(完整)
  10. linux系统——hadoop环境搭建
  11. 古建筑测绘任重道远,三维实景建模是唯一突破口?
  12. 第60天:攻防世界Mobile两道题
  13. 谷歌提出新框架Soft Diffusion:从通用扩散过程中正确调度、学习和采样
  14. UC浏览器电脑板书签栏消失如何恢复?
  15. 【生产力工具】Surfingkeys——网页版Vim
  16. vivado 2018.2官方下载
  17. android中文乱码的解决办法
  18. C语言打印hello world
  19. 推荐一款手机清理工具App悟空清理
  20. php用www打开,php文件如何打开 php文件打开方法

热门文章

  1. 2020年最新最全的Java面试经历整理(一次性查缺补漏个够)
  2. 三维电子罗盘测量原理分析
  3. 《野球少年》:王牌投手·棒球联盟
  4. asio学习之udp client
  5. Android 性能优化 之 插桩日志分析
  6. bootstrap侧边伸缩菜单
  7. 国际权威机构正式授予迈动互联CMMI软件体系认证
  8. matlab 泛函极值,(二) 泛函的极值 - osc_99vlkukb的个人空间 - OSCHINA - 中文开源技术交流社区...
  9. QueryWrapper 多条件
  10. 修改html时webpack热更新,webpack热更新(HMR)