一.前提主从集群之间能互相通讯;

二.在cluster1上(源集群): 

1.查看集群已开启的peers

hbase(main):011:0> list_peers

PEER_ID CLUSTER_KEY STATE TABLE_CFS
10 slave.01.bigdata.prod.wgq,slave.02.bigdata.prod.wgq,slave.03.bigdata.prod.wgq:2181:/hbase ENABLED USER_INFO:ncallrecords
1 row(s) in 0.0100 seconds

2.使用新建表test做测试,建表,然后在从集群也建立一张一样的test表:

hbase(main):015:0> create "test","A"
0 row(s) in 2.2720 seconds

3.disable该表:

hbase(main):022:0> disable 'test'
0 row(s) in 2.2550 seconds

4.开启复制功能,默认为不开启:

hbase(main):023:0> alter 'test',{NAME=>'A',REPLICATION_SCOPE => '1'}

5.开启该表:

hbase(main):026:0> enable 'test'
0 row(s) in 1.2630 seconds

6.针对该表建立add_peer功能:

hbase(main):028:0> add_peer '11','slave.01.bigdata.prod.wgq,slave.02.bigdata.prod.wgq,slave.03.bigdata.prod.wgq:2181:/hbase'
0 row(s) in 0.0180 seconds

7.再看查看已开启的peers,可以看到新加的:

hbase(main):029:0> list_peers
PEER_ID CLUSTER_KEY STATE TABLE_CFS
11 slave.01.bigdata.prod.wgq,slave.02.bigdata.prod.wgq,slave.03.bigdata.prod.wgq:2181:/hbase ENABLED
10 slave.01.bigdata.prod.wgq,slave.02.bigdata.prod.wgq,slave.03.bigdata.prod.wgq:2181:/hbase ENABLED USER_INFO:ncallrecords
2 row(s) in 0.0120 seconds

8.开启针对test表同步复制:

hbase(main):030:0> set_peer_tableCFs '11','test'
0 row(s) in 0.0040 seconds

9.再list_peers:

hbase(main):031:0> list_peers
PEER_ID CLUSTER_KEY STATE TABLE_CFS
11 slave.01.bigdata.prod.wgq,slave.02.bigdata.prod.wgq,slave.03.bigdata.prod.wgq:2181:/hbase ENABLED test
10 slave.01.bigdata.prod.wgq,slave.02.bigdata.prod.wgq,slave.03.bigdata.prod.wgq:2181:/hbase ENABLED USER_INFO:ncallrecords
2 row(s) in 0.0050 seconds

10.往主集群hbase数据库test表中put新数据,验证从集群是否有新数据:

hbase(main):034:0> put "test","2222222","A:name","chenliangliang"
0 row(s) in 0.0720 seconds

hbase(main):035:0> put "test","2222222","A:age","30"
0 row(s) in 0.0060 seconds

----------------------------------------------------------------------------------------------------

hbase(main):036:0> scan "test"
ROW COLUMN+CELL
1111111 column=A:age, timestamp=1524021317653, value=30
1111111 column=A:name, timestamp=1524021305313, value=gongxiucheng
2222222 column=A:age, timestamp=1524021628181, value=30
2222222 column=A:name, timestamp=1524021616864, value=chenliangliang
2 row(s) in 0.0070 seconds

-------------------------------------------------------------------------------------------------------

其中rowKey为1111111的这条是开启数据同步之前put的;

-------------------------------------------------------------------------------------------------------

然后到从集群scan  test表,假如有rowKey为2222222的这条数据,则同步成功:

---------------------------------------------------------------------------------------------------------

hbase(main):010:0> scan "test"
ROW COLUMN+CELL
2222222 column=A:age, timestamp=1524021628181, value=30
2222222 column=A:name, timestamp=1524021616864, value=chenliangliang
1 row(s) in 0.0350 seconds

三.总结:

1 验证是需要先核对下hbase的版本,不同版本的复制命令不同;

2 同步是针对配置后复制的新数据,旧数据需要手动迁移;

  

转载于:https://www.cnblogs.com/gxc2015/p/8873269.html

5.hbase表新增数据同步之add_peer相关推荐

  1. datax 持续数据同步_采用DataX实现多表增量数据同步

    这两天验证了一下阿里的DataX数据同步工具,觉得DataX可以用来做管理数据的多级数据同步.DataX用来做批量数据迁移很适合,能够保证数据的一致性,性能也很好,结合时间戳字段,用来实现数据定时增量 ...

  2. MYSQL数据库表A数据同步到表B

    目前有一个功能,需要数据库表A的数据同步到数据库表B里,目前来说除了表名不一样,字段全部都一样. 表A 表B 然后执行sql语句 INSERT QC_RSLT_EXT SELECT * FROM QC ...

  3. Kettle-开源的ETL工具集-实现SqlServer到Mysql表的数据同步并部署在Windows服务器上

    场景 kettle 中文名称叫水壶,该项目的主程序员MATT希望把各种数据放到一个壶里,然后 以一种指定的格式流出.是一款由纯Java编写的ETL工具,绿色无需安装,数据抽取高效稳定(数据迁移工具). ...

  4. python实现指定数据库指定表的数据同步(监听binlog)

    话不多说直接上代码,简单实现,具体功能请根据业务场景自行调整 from pymysqlreplication import BinLogStreamReader from pymysqlreplica ...

  5. scala学习-scala读取Hbase表中数据并且做join连接查询

    1.业务需求:sparkSQL on hbase ,sparkSQL直接读取Hbase中的两个表,进行连接查询. 2.图示 绿色的线 上图中绿色的线是做过测试的,直接在hive中建表,然后load数据 ...

  6. java实现两张表的数据同步,java实现mysql数据库从一张表插入数据到另一张表

    包 cn.gtmc.schedule.app; 导入 cn.gtmc.schedule.domain.Employee; import java.sql. * ; 导入 java.util.Array ...

  7. php mysql两个表合并_php操作mysql两个数据库中表的数据同步

    题记: 我们开发当中经常会遇到,数据同步.比如将teaching数据库中area表的数据同步到study数据库中zone表中. 备注:这两个数据库不同,数据表名字也不同,但数据表的结构相同.不同表结构 ...

  8. elasticsearch 数据类型_基于 MySQL Binlog 的 Elasticsearch 数据同步实践

    来源;马蜂窝 一.背景 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品.订单等数据的多维度检索. 使用 Elasticsearch 存 ...

  9. 基于 MySQL Binlog 的 Elasticsearch 数据同步实践

    一.为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品.订单等数据的多维度检索. 使用 Elasticsearch 存储业务数 ...

  10. 基于 MySQL Binlog 的 Elasticsearch 数据同步实践 原

    一.背景 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品.订单等数据的多维度检索. 使用 Elasticsearch 存储业务数据可以 ...

最新文章

  1. 深度学习中的一些英文解释
  2. InnoDB调优-索引优化策略
  3. 复数矩阵QR分解算法的C++实现
  4. JavaScript学习(十)
  5. python批量添加水印_用Python批量添加水印,提高工作效率!
  6. [渝粤教育] 中国地质大学 高级会计学 复习题
  7. 开始使用gradle
  8. 淘宝十年资深架构师吐血总结淘宝的数据库架构设计和采用的技术手段。
  9. linux里面查找替换命令,LINUX 查找替换命令 总结
  10. 一个小白的Thingworx成长记录
  11. cheatsheet 使用_使用CheatSheet快速查看任何Mac App的所有键盘快捷键
  12. QTextLine、QGlyphRun、QTextLayout
  13. c++实现磨砂玻璃(类似马赛克)效果
  14. Mac 常用软件注册码
  15. 少年时期最喜欢的那些电视剧
  16. Vue 2 即将成为过去
  17. qt listwidget 关键字颜色_seo关键字优化工具如何收费
  18. 双目测距数学原理详解
  19. 与朋友相处之道 2014-12-07
  20. 互联网智慧旅游云平台项目解决方案

热门文章

  1. 在SQL Server 2005中实现异步触发器架构
  2. Jquery—Jquery中$与$.fn的区别
  3. action与jsp传值的几种方法
  4. SqlServer中将某字符串按照特定的字符分隔并返回临时表
  5. Angularjs的ng-repeat中去除重复的数据
  6. C++ 虚函数表详解
  7. td中文字间距_怎么做?文字编排创意的小心思
  8. 递归下降分析法的基本思想。_八大算法思想总结提高
  9. 运行测试类(Test报错) Execution failed for task ‘:test‘.
  10. Windows 无法访问\\196.168.206.xx,你的计算机配置似乎是正确的,但该设备无法访问的问题解决