【hadoop生态之ZooKeeper】第四章ZooKeeper实战【笔记+代码】
四、Zookeeper实战
4.1 分布式安装部署
0)集群规划
在ikeng、ikeng2和ikeng3三个节点上部署Zookeeper。
1)解压安装
(1)解压zookeeper安装包到/opt/module/目录下
[hadoop@ikeng software]$ tar -zxvf zookeeper-3.4.10.tar.gz -C /opt/module/
(2)在/opt/module/zookeeper-3.4.10/这个目录下创建zkData
mkdir -p zkData
(3)重命名/opt/module/zookeeper-3.4.10/conf这个目录下的zoo_sample.cfg为zoo.cfg
mv zoo_sample.cfg zoo.cfg
2)配置zoo.cfg文件
(1)具体配置
dataDir=/opt/module/zookeeper-3.4.10/zkData
增加如下配置
#######################cluster##########################server.1=ikeng:2888:3888server.2=ikeng2:2888:3888server.3=ikeng3:2888:3888
(2)配置参数解读
Server.A=B:C:D。
A是一个数字,表示这个是第几号服务器;
B是这个服务器的ip地址;
C是这个服务器与集群中的Leader服务器交换信息的端口;
D是万一集群中的Leader服务器挂了,需要一个端口来重新进行选举,选出一个新的Leader,而这个端口就是用来执行选举时服务器相互通信的端口。
集群模式下配置一个文件myid,这个文件在dataDir目录下,这个文件里面有一个数据就是A的值,Zookeeper启动时读取此文件,拿到里面的数据与zoo.cfg里面的配置信息比较从而判断到底是哪个server。
3)集群操作
(1)在/opt/module/zookeeper-3.4.10/zkData目录下创建一个myid的文件
touch myid
添加myid文件,注意一定要在linux里面创建,在notepad++里面很可能乱码
(2)编辑myid文件
vi myid
在文件中添加与server对应的编号:如2
(3)拷贝配置好的zookeeper到其他机器上
scp -r zookeeper-3.4.10/ root@ikeng2.hadoop.com:/opt/app/
scp -r zookeeper-3.4.10/ root@ikeng3.hadoop.com:/opt/app/
并分别修改myid文件中内容为3、4
(4)分别启动zookeeper
[root@ikeng zookeeper-3.4.10]# bin/zkServer.sh start[root@ikeng2 zookeeper-3.4.10]# bin/zkServer.sh start[root@ikeng3 zookeeper-3.4.10]# bin/zkServer.sh start
(5)查看状态
[root@ikeng zookeeper-3.4.10]# bin/zkServer.sh statusJMX enabled by defaultUsing config: /opt/module/zookeeper-3.4.10/bin/../conf/zoo.cfgMode: follower[root@ikeng2 zookeeper-3.4.10]# bin/zkServer.sh statusJMX enabled by defaultUsing config: /opt/module/zookeeper-3.4.10/bin/../conf/zoo.cfgMode: leader[root@ikeng3 zookeeper-3.4.5]# bin/zkServer.sh statusJMX enabled by defaultUsing config: /opt/module/zookeeper-3.4.10/bin/../conf/zoo.cfgMode: follower
4.2 客户端命令行操作
命令基本语法 | 功能描述 |
---|---|
help | 显示所有操作命令 |
ls path [watch] | 使用 ls 命令来查看当前znode中所包含的内容 |
ls2 path [watch] | 查看当前节点数据并能看到更新次数等数据 |
create | 普通创建(永久节点) -s 含有序列 -e 临时(重启或者超时消失) |
get path [watch] | 获得节点的值 |
set | 设置节点的具体值 |
stat | 查看节点状态 |
delete | 删除节点 |
rmr | 递归删除节点 |
1)启动客户端
[hadoop@ikeng2 zookeeper-3.4.10]$ bin/zkCli.sh
2)显示所有操作命令
[zk: localhost:2181(CONNECTED) 1] help
3)查看当前znode中所包含的内容
[zk: localhost:2181(CONNECTED) 0] ls /
[zookeeper]
4)查看当前节点数据并能看到更新次数等数据
[zk: localhost:2181(CONNECTED) 1] ls2 /
[zookeeper]
cZxid = 0x0
ctime = Thu Jan 01 08:00:00 CST 1970
mZxid = 0x0
mtime = Thu Jan 01 08:00:00 CST 1970
pZxid = 0x0
cversion = -1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 0
numChildren = 1
5)创建普通节点
[zk: localhost:2181(CONNECTED) 2] create /app1 "hello app1"Created /app1[zk: localhost:2181(CONNECTED) 4] create /app1/server101 "192.168.1.101"Created /app1/server101
6)获得节点的值
[zk: localhost:2181(CONNECTED) 6] get /app1hello app1cZxid = 0x20000000actime = Mon Jul 17 16:08:35 CST 2017mZxid = 0x20000000amtime = Mon Jul 17 16:08:35 CST 2017pZxid = 0x20000000bcversion = 1dataVersion = 0aclVersion = 0ephemeralOwner = 0x0dataLength = 10numChildren = 1[zk: localhost:2181(CONNECTED) 8] get /app1/server101192.168.1.101cZxid = 0x20000000bctime = Mon Jul 17 16:11:04 CST 2017mZxid = 0x20000000bmtime = Mon Jul 17 16:11:04 CST 2017pZxid = 0x20000000bcversion = 0dataVersion = 0aclVersion = 0ephemeralOwner = 0x0dataLength = 13numChildren = 0
7)创建短暂节点
[zk: localhost:2181(CONNECTED) 9] create -e /app-emphemeral 8888
(1)在当前客户端是能查看到的
[zk: localhost:2181(CONNECTED) 10] ls /
[app1, app-emphemeral, zookeeper]
(2)退出当前客户端然后再重启客户端
[zk: localhost:2181(CONNECTED) 12] quit
[hadoop@ikeng3 zookeeper-3.4.10]$ bin/zkCli.sh
(3)再次查看根目录下短暂节点已经删除
[zk: localhost:2181(CONNECTED) 0] ls /
[app1, zookeeper]
8)创建带序号的节点
(1)先创建一个普通的根节点app2
[zk: localhost:2181(CONNECTED) 11] create /app2 “app2”
(2)创建带序号的节点
[zk: localhost:2181(CONNECTED) 13] create -s /app2/aa 888
Created /app2/aa0000000000
[zk: localhost:2181(CONNECTED) 14] create -s /app2/bb 888
Created /app2/bb0000000001
[zk: localhost:2181(CONNECTED) 15] create -s /app2/cc 888
Created /app2/cc0000000002
如果原节点下有1个节点,则再排序时从1开始,以此类推。
[zk: localhost:2181(CONNECTED) 16] create -s /app1/aa 888
Created /app1/aa0000000001
9)修改节点数据值
[zk: localhost:2181(CONNECTED) 2] set /app1 999
10)节点的值变化监听
(1)在104主机上注册监听/app1节点数据变化
[zk: localhost:2181(CONNECTED) 26] get /app1 watch
(2)在103主机上修改/app1节点的数据
[zk: localhost:2181(CONNECTED) 5] set /app1 777
(3)观察104主机收到数据变化的监听
WATCHER::
WatchedEvent state:SyncConnected type:NodeDataChanged path:/app1
11)节点的子节点变化监听(路径变化)
(1)在104主机上注册监听/app1节点的子节点变化
[zk: localhost:2181(CONNECTED) 1] ls /app1 watch
[aa0000000001, server101]
(2)在103主机/app1节点上创建子节点
[zk: localhost:2181(CONNECTED) 6] create /app1/bb 666
Created /app1/bb
(3)观察104主机收到子节点变化的监听
WATCHER::
WatchedEvent state:SyncConnected type:NodeChildrenChanged path:/app1
12)删除节点
[zk: localhost:2181(CONNECTED) 4] delete /app1/bb
13)递归删除节点
[zk: localhost:2181(CONNECTED) 7] rmr /app2
14)查看节点状态
[zk: localhost:2181(CONNECTED) 12] stat /app1
cZxid = 0x20000000a
ctime = Mon Jul 17 16:08:35 CST 2017
mZxid = 0x200000018
mtime = Mon Jul 17 16:54:38 CST 2017
pZxid = 0x20000001c
cversion = 4
dataVersion = 2
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 3
numChildren = 2
4.3 API应用
4.3.1 IDEA环境搭建
1)创建一个工程
pom.xml
<dependencies><dependency><groupId>org.apache.zookeeper</groupId><artifactId>zookeeper</artifactId><version>3.4.10</version></dependency>
</dependencies>
4.3.2 创建ZooKeeper客户端
private static String connectString = "ikeng:2181,ikeng2:2181,ikeng3:2181";
private static int sessionTimeout = 2000;
private ZooKeeper zkClient = null;@Before
public void init() throws Exception {zkClient = new ZooKeeper(connectString, sessionTimeout, new Watcher() {@Overridepublic void process(WatchedEvent event) {// 收到事件通知后的回调函数(用户的业务逻辑)System.out.println(event.getType() + "--" + event.getPath());// 再次启动监听try {zkClient.getChildren("/", true);} catch (Exception e) {e.printStackTrace();}}});
}
4.3.3 创建子节点
// 创建子节点
@Test
public void create() throws Exception {// 数据的增删改查// 参数1:要创建的节点的路径; 参数2:节点数据 ; 参数3:节点权限 ;参数4:节点的类型String nodeCreated = zkClient.create("/eclipse", "hello zk".getBytes(), Ids.OPEN_ACL_UNSAFE,CreateMode.PERSISTENT);
}
4.3.4 获取子节点并监听
// 获取子节点@Testpublic void getChildren() throws Exception {List<String> children = zkClient.getChildren("/", true);for (String child : children) {System.out.println(child);}// 延时阻塞Thread.sleep(Long.MAX_VALUE);}
4.3.5 判断znode是否存在
// 判断znode是否存在@Testpublic void exist() throws Exception {Stat stat = zkClient.exists("/eclipse", false);System.out.println(stat == null ? "not exist" : "exist");}
4.4 案例实战 分布式秒杀
Zk所需要的Pom依赖
<!-- zookeeper所需依赖 --><dependency><groupId>org.apache.curator</groupId><artifactId>curator-framework</artifactId><version>4.0.0</version></dependency><dependency><groupId>org.apache.curator</groupId><artifactId>curator-recipes</artifactId><version>4.0.0</version></dependency><dependency><groupId>org.apache.curator</groupId><artifactId>curator-client</artifactId><version>4.0.0</version></dependency><dependency><groupId>com.google.guava</groupId><artifactId>guava</artifactId><version>16.0.1</version></dependency>
TestDistributedLock
import org.apache.curator.RetryPolicy;
import org.apache.curator.framework.CuratorFramework;
import org.apache.curator.framework.CuratorFrameworkFactory;
import org.apache.curator.framework.recipes.locks.InterProcessMutex;
import org.apache.curator.retry.ExponentialBackoffRetry;public class TestDistributedLock {//定义共享资源private static int count = 10;private static void printCountNumber() {System.out.println("***********" + Thread.currentThread().getName() + "**********");System.out.println("当前值:" + count);count--;//睡2秒try {Thread.sleep(500);} catch (InterruptedException e) {// TODO Auto-generated catch blocke.printStackTrace();}System.out.println("***********" + Thread.currentThread().getName() + "**********");}public static void main(String[] args) {//定义客户端重试的策略RetryPolicy policy = new ExponentialBackoffRetry(1000, //每次等待的时间10); //最大重试的次数//定义ZK的一个客户端CuratorFramework client = CuratorFrameworkFactory.builder().connectString("ikeng:2181").retryPolicy(policy).build();//在ZK生成锁 ---> 就是ZK的目录client.start();final InterProcessMutex lock = new InterProcessMutex(client, "/mylock");// 启动10个线程去访问共享资源for (int i = 0; i < 10; i++) {new Thread(new Runnable() {public void run() {try {//请求得到锁lock.acquire();//访问共享资源printCountNumber();} catch (Exception ex) {ex.printStackTrace();} finally {//释放锁try {lock.release();} catch (Exception e) {e.printStackTrace();}}}}).start();}}
}
【hadoop生态之ZooKeeper】第四章ZooKeeper实战【笔记+代码】相关推荐
- 【hadoop生态之Hbase】HBASE的优化【笔记+代码】
三.HBase的优化 3.1.高可用 在HBase中Hmaster负责监控RegionServer的生命周期,均衡RegionServer的负载,如果Hmaster挂掉了,那么整个HBase集群将陷入 ...
- zookeeper -- 第四章 zookeeper watcher讲解
2019独角兽企业重金招聘Python工程师标准>>> 先站坑 转载于:https://my.oschina.net/u/3136594/blog/1610091
- 【hadoop生态之Hive】Hive的查询语言【笔记+代码】
六.查询 官方教程 [WITH CommonTableExpression (, CommonTableExpression)*] (Note: Only available starting wit ...
- 【hadoop生态之Hive】Hive的数据类型【笔记+代码】
三.Hive数据类型 3.1 基本数据类型 Hive数据类型 Java数据类型 长度 例子 TINYINT byte 1byte有符号整数 20 SMALINT short 2byte有符号整数 20 ...
- 控制系统仿真与CAD-薛定宇-第四章matlab学习笔记
控制系统仿真与CAD-薛定宇-第四章matlab学习笔记 04-02传递函数模型 tfdata() 传递函数属性法 04-07典型系统连接计算 pretty 用法 04-08方框图简化 04-09代数 ...
- Hadoop集群搭建(四:Zookeeper环境安装)
实验 目的 要求 目的: 1.掌握在完全分布模式的整合平台中Zookeeper的完全分布模式的安装 要求: 完成Zookeeper的完全分布农事的安装: Zookeeper服务能够正常启动和连接: Z ...
- 第四章:小朱笔记hadoop之源码分析-conf分析
第三章:小朱笔记hadoop之conf分析 一.Configurable void setConf(Configuration conf); //获取配置信息的方法: Configur ...
- Zookeeper系列四:Zookeeper实现分布式锁、Zookeeper实现配置中心
一.Zookeeper实现分布式锁 分布式锁主要用于在分布式环境中保证数据的一致性. 包括跨进程.跨机器.跨网络导致共享资源不一致的问题. 1. 分布式锁的实现思路 说明: 这种实现会有一个缺点,即当 ...
- ZooKeeper(四)ZooKeeper的简单使用
ZooKeeper的命令行操作 运行 zkCli.sh –server <ip:port> 进入命令行工具,连接后使用help可以查看所有命令: 1.使用 ls 命令来查看当前 ZooKe ...
最新文章
- python3环境搭建(利用Anaconda+pycharm+pytorch)
- IOS纯手写代码支持旋屏
- 串口调试助手c语言程序,串口调试助手C语言源程序
- Java提高班(一)Thread详解
- Extjs中createDelegate的作用
- # 20145220《信息安全系统设计基础》第1周学习总结
- Google产品主管Ken Norton的6条心得:如何招聘一位优秀的产品经理?
- 99%的产品经理不知道的秘密:如何招程序猿喜欢?
- 全国电视直播v1.0
- 快来!前端君喊你加入快驾网智囊团
- jquery position
- Arduino AT24C02详解读写地址位
- 采购与供应链管理 读书笔记一
- VBS隐藏bat窗口
- CSS之display用法
- 微信第三方登陆实现-微信浏览器实现弹出提示授权非微信浏览器提供二维码
- Linux操作,su切换用户命令中有无横杠“-”的区别
- python---之cython的使用
- 兄弟hl3150cdn打印测试页6_打印性能测试:LED高效输出_兄弟 3150CDN_办公打印评测试用-中关村在线...
- C++之适配器(Adapter)模式