平和的心

  • CnBlogs
  • Home
  • New Post
  • Contact
  • Admin
  • Rss

Posts - 534  Articles - 0  Comments - 56

深入了解HBASE架构(转)

阅读目录

  • 一.Hbase 架构的组件
  • 二.Regions
  • 三.HBase HMaster
  • 四.ZooKeeper:协调器
  • 五、组件之间如何工作
  • 六  Hbase 的首次读与写
  • 七 Hbase META表
  • 八  Region Server 的组件
  • 九 HBase架构的优点
  • 十 HBase架构的缺点

dd by zhj: 最近的工作需要跟HBase打交道,所以花时间把《HBase权威指南》粗略看了一遍,感觉不过瘾,又从网上找了几篇经典文章。

下面这篇就是很经典的文章,对HBase的架构进行了比较详细的描述。我自己也进行了简单的总结,简单的说,HBase使用的是LSM(

Log-Structured Merge tree)--日志结构的合并树做为存储方式,这种存储方式是很多NoSQL数据库都在使用的,它的主要特点是:

1. 写:完全的内存操作,速度非常快。具体来说,是写入WAL(write ahead log)日志和MemStore内存,完成后给客户端响应。

WAL相当于MySQL的binlog。当MemStore达到一定大小后,将其flush到磁盘。

2. 读:将磁盘中的数据与MemStore中的数据进行合并后

与B+树相比,LSM提高了写入性能,而且读取性能并没有减低多少

HBase由三个部分,如下

1. HMaster

对Region进行负载均衡,分配到合适的HRegionServer

2. ZooKeeper

选举HMaster,对HMaster,HRegionServer进行心跳检测(貌似是这些机器节点向ZooKeeper上报心跳)

3. HRegionServer

数据库的分片,HRegionServer上的组成部分如下

Region:HBase中的数据都是按row-key进行排序的,对这些按row-key排序的数据进行水平切分,每一片称为一个Region,它有startkey和endkey,Region的大小可以配置,一台RegionServer中可以放多个Region

CF:列族。一个列族中的所有列存储在相同的HFile文件中

HFile:HFile就是Hadoop磁盘文件,一个列族中的数据保存在一个或多个HFile中,这些HFile是对列族的数据进行水平切分后得到的。

MemStore:HFile在内存中的体现。当我们update/delete/create时,会先写MemStore,写完后就给客户端response了,当Memstore达到一定大

小后,会将其写入磁盘,保存为一个新的HFile。HBase后台会对多个HFile文件进行merge,合并成一个大的HFile

英文:https://mapr.com/blog/in-depth-look-hbase-architecture/#.VdMxvWSqqko

译文:https://my.oschina.net/u/1416978/blog/716926

回到顶部

一.Hbase 架构的组件

  • Region Server:提供数据的读写服务,当客户端访问数据时,直接和Region Server通信。
  • HBase Master:Region的分配,.DDL操作(创建表,删除表)
  • Zookeeper:是HDFS的一部分,维护一个活跃的集群状态

Hadoop DataNode存储着Region Server 管理的数据,所有的Hbase数据存储在HDFS文件系统中,Region Servers在HDFS DataNode中是可配置的,并使数据存储靠近在它所需要的地方,就近服务,当王HBASE写数据时时Local的,但是当一个region 被移动之后,Hbase的数据就不是Local的,除非做了压缩(compaction)操作。NameNode维护物理数据块的元数据信息。

回到顶部

二.Regions

HBase Tables 通过行健的范围(row key range)被水平切分成多个Region, 一个Region包含了所有的,在Region开始键和结束之内的行,Regions被分配到集群的节点上,成为 Region Servers,提供数据的读写服务,一个region server可以服务1000 个Region。

回到顶部

三.HBase HMaster

分配Region,DDL操作(创建表, 删除表)

协调各个Reion Server :

-在启动时分配Region、在恢复或是负载均衡时重新分配Region。

-监控所有集群当中的Region Server实例,从ZooKeeper中监听通知。

管理功能:

-提供创建、删除、更新表的接口。

回到顶部

四.ZooKeeper:协调器

Hbase使用Zookeeper作为分布式协调服务,来维护集群中的Server状态,ZooKeeper维护着哪些Server是活跃或是可用的。提供Server 失败时的通知。Zookeeper使用一致性机制来保证公共的共享状态,注意,需要使用奇数的三台或是五台机器,保证一致。

回到顶部

五、组件之间如何工作

Zookeeper一般在分布式系统中的成员之间协调共享的状态信息,Region Server和活跃的HMaster通过会话连接到Zookeeper,ZooKeeper维护短暂的阶段,通过心跳机制用于活跃的会话。

每个Region Server创建一个短暂的节点,HMaster监控这些节点发现可用的Region Server,同时HMaster 也监控这些节点的服务器故障。HMaster 通过撞见一个临时的节点,Zookeeper决定其中一个HMaster作为活跃的。活跃的HMaster 给ZooKeeper发送心跳信息,不活跃的HMaster在活跃的HMaster出现故障时,接受通知。

如果一个Region Server或是一个活跃的HMaster在发送心跳信息时失败或是出现了故障,则会话过期,相应的临时节点将被删除,监听器将因这些删除的节点更新通知信息,活跃的HMaster将监听Region Server,并且将会恢复出现故障的Region Server,不活跃的HMaster 监听活跃的HMaster故障,如果一个活跃的HMaster出现故障,则不活跃的HMaster将会变得活跃。

回到顶部

六  Hbase 的首次读与写

有一个特殊的Hbase 目录表叫做Meta表,它拥有Region 在集群中的位置信息,ZooKeeper存储着Meta表的位置。

如下就是客户端首次读写Hbase 所发生的事情:

1.客户端从Zookeeper的Meta表中获取Region Server。

2.客户端将查询 .META.服务器,获取它想访问的相对应的Region Server的行健。客户端将缓存这些信息以及META 表的位置。

3.护额端将从相应的Region Server获取行。

如果再次读取,客户端将使用缓存来获取META 的位置及之前的行健。这样时间久了,客户端不需要查询META表,除非Region 移动所导致的丢失,这样的话,则将会重新查询更新缓存。

回到顶部

七 Hbase META表

META 表集群中所有Region的列表

.META. 表像是一个B树

.META. 表结构为:

- Key: region start key,region id

- Values: RegionServer

回到顶部

八  Region Server 的组件

Region Server 运行在HDFS DataNode上,并有如下组件:

WAL:Write Ahead Log 提前写日志是一个分布式文件系统上的文件,WAL存储没有持久化的新数据,用于故障恢复,类似Oracle 的Redo Log。

BlockCache:读缓存,它把频繁读取的数据放入内存中,采用LRU

MemStore:写缓存,存储来没有来得及写入磁盘的新数据,每一个region的每一个列族有一个MemStore

Hfiles :存储行,作为键值对,在硬盘上。

Hbase 写步骤1:

当客户端提交一个Put 请求,第一步是把数据写入WAL:

-编辑到在磁盘上的WAL的文件,添加到WAL文件的末尾

-WAL用于宕机恢复

Hbase 写步骤2

一旦数据写入WAL,将会把它放到MemStore里,然后将返回一个ACk给客户端

MemStore

MemStore 存储以键值对的方式更新内存,和存储在HFile是一样的。每一个列族就有一个MemStore ,以每个列族顺序的更新。

HBase Region 刷新(Flush)

当MemStore 积累到足够的数据,则整个排序后的集合被写到HDFS的新的HFile中,每个列族使用多个HFiles,列族包含真实的单元格,或者是键值对的实例,随着KeyValue键值对在MemStores中编辑排序后,作为文件刷新到磁盘上。

注意列族是有数量限制的,每一个列族有一个MemStore,当MemStore满了,则进行刷新。它也会保持最后一次写的序列号,这让系统知道直到现在都有什么已经被持久化了。

最高的序列号作为一个meta field 存储在HFile中,来显示持久化在哪里结束,在哪里继续。当一个region 启动后,读取序列号,最高的则作为新编辑的序列号。

HBase HFile

数据存储在HFile,HFile 存储键值,当MemStore 积累到足够的数据,整个排序的键值集合会写入到HDFS中新的HFile 中。这是一个顺序的写,非常快,能避免移动磁头。

HFile 的结构

HFile 包含一个多层的索引,这样不必读取整个文件就能查找到数据,多层索引像一个B+树。

  • 键值对以升序存储
  • 在64K的块中,索引通过行健指向键值对的数据。
  • 每个块有自己的叶子索引
  • 每个块的最后的键被放入到一个中间索引中。
  • 根索引指向中间索引。

trailer (追踪器)指向 meta的块,并在持久化到文件的最后时被写入。trailer 拥有 bloom过滤器的信息以及时间范围(time range)的信息。Bloom 过滤器帮助跳过那些不含行健的文件,时间范围(time range)则跳过那些不包含在时间范围内的文件。

HFile Index

索引是在HFile 打开并放入内存中时被加载的,这允许在单个磁盘上执行查找。

HBase 读合并

一个行的键值单元格可以被存储在很多地方,行单元格已经被存储到HFile中、在MemStore最近被更新的单元格、在Block cache最佳被读取的单元格,所以当你读取一行数据时,系统怎么能把相对应的单元格内容返回呢?一次读把block cache, MemStore, and HFiles中的键值合并的步骤如下:

  1. 首先,扫描器(scanner )在读缓存的Block cache寻找行单元格,最近读取的键值缓存在Block cache中,当内存需要时刚使用过的(Least Recently Used )将会被丢弃。
  2. 接下来,扫描器(scanner)将在MemStore中查找,以及在内存中最近被写入的写缓存。
  3. 如果扫描器(scanner)在MemStore 和Block Cache没有找到所有的数据,则HBase 将使用 Block Cache的索引以及bloom过滤器把含有目标的行单元格所在的HFiles 加载到内存中。

每个MemStore有许多HFiles 文件,这样对一个读取操作来说,多个文件将不得不被多次检查,势必会影响性能,这种现象叫做读放大(read amplification)。

HBase 辅压缩(minor compaction)

HBase将会自动把小HFiles 文件重写为大的HFiles 文件,这个过程叫做minor compaction。

辅助压缩减少文件的数量,并执行合并排序。

HBase 主压缩(Major Compaction)

主压缩将会合并和重写一个region 的所有HFile 文件,根据每个列族写一个HFile 文件,并在这个过程中,删除deleted 和expired 的单元格,这将提高读性能。

然而因为主压缩重写了所有的文件,这个过程中将会导致大量的磁盘IO操作以及网络拥堵。我们把这个过程叫做写放大(write amplification)。

Region = 临近的键

  • 一个表将被水平分割为一个或多个Region,一个Region包含相邻的起始键和结束键之间的行的排序后的区域。
  • 每个region默认1GB
  • 一个region的表通过Region Server 向客户端提供服务
  • 一个region server可以服务1000 个region

Region 分裂

初始时一个table在一个region 中,当一个region 变大之后,将会被分裂为2个子region,每个子Region 代表一半的原始Region,在一个相同的 Region server中并行打开。

然后把分裂报告给HMaster。因为需要负载均衡的缘故,HMaster 可能会调度新的Region移动到其他的Server上。

读负载均衡(Read Load Balancing)

分裂一开始发生在相同的region server上,但是由于负载均衡的原因。HMaster 可能会调度新的Region被移动到其他的服务器上。

导致的结果是新的Region Server 提供数据的服务需要读取远端的HDFS 节点。直到主压缩把数据文件移动到Regions server本地节点上,Hbase数据当写入时是本地的,

但是当一个region 移动(诸如负载均衡或是恢复操作等),它将不会是本地的,直到做了主压缩的操作(major compaction.)

HDFS数据复制

所有的读写操作发生在主节点上,HDFS 复制WAL和HFile 块,HFile复制是自动发生的,HBase 依赖HDFS提供数据的安全,

当数据写入HDFS,本地化地写入一个拷贝,然后复制到第二个节点,然后复制到第三个节点。

WAL 文件和 HFile文件通过磁盘和复制进行持久化,那么HBase怎么恢复还没来得及进行持久化到HFile中的MemStore更新呢?

HBase 故障恢复

当一个RegionServer 挂掉了,坏掉的Region 不可用直到发现和恢复的步骤发生。Zookeeper 决定节点的失败,然后失去region server的心跳。

然后HMaster 将会被通知Region Server已经挂掉了。

当HMaster检查到region server已经挂掉后,HMaster 将会把故障Server上的Region重写分配到活跃的Region servers上。

为了恢复宕掉的region server,memstore 将不会刷新到磁盘上,HMaster 分裂属于region server 的WAL 到单独的文件,

然后存储到新的region servers的数据节点上,每个Region Server从单独的分裂的WAL回放WAL。来重建坏掉的Region的MemStore。

数据恢复

WAL 文件包含编辑列表,一个编辑代表一个单独的put 、delete.Edits 是按时间的前后顺序排列地写入,为了持久化,增加的文件将会Append到WAL 文件的末尾。

当数据在内存中而没有持久化到磁盘上时失败了将会发生什么?通过读取WAL将WAL 文件回放,

添加和排序包含的edits到当前的MemStore,最后MemStore 刷新将改变写入到HFile中。

回到顶部

九 HBase架构的优点

强一致模型:当写操作返回时,所有的读将看到一样的结果

自动扩展:Regions 随着数据变大将分裂;使用HDFS传播和复制数据

内建的恢复机制:使用WAL

和Hadoop的集成:直接使用mapreduce

回到顶部

十 HBase架构的缺点

WAL回放较慢

故障恢复较慢

主压缩导致IO瓶颈。

分类: Hadoop

标签: HBase

好文要顶 关注我 收藏该文  

平和的心
关注 - 78
粉丝 - 92

+加关注

1

0

« 上一篇:理解Hbase和BigTable(转)
» 下一篇:HBase系列文章(转)

posted @ 2017-11-06 00:03 平和的心 Views(3166) Comments(0) Edit 收藏

刷新评论刷新页面返回顶部

注册用户登录后才能发表评论,请 登录 或 注册,访问网站首页。

相关博文:
· 深入了解jQuery之整体架构
· 深入了解ViewState 深入了解ViewState
· 深入了解HyperServer
· 深入了解session
· 深入了解ASO

最新新闻
· 你看到的是双11的狂欢,严肃的说这可能是云计算的起源
· 硅谷是个什么谷(第二十章):且听风吟
· 网易严选“入坑”品牌线下店
· 在硅谷这个神之眷顾的幸运小楼面前,谁都不算锦鲤
· AI比价,真的在为你比价吗?
» 更多新闻...

历史上的今天:
2016-11-06 WPS for Linux(ubuntu)字体缺失解决办法(转)

Search

My Tags

Post Categories

Post Archives

Gallery

Recent Comments

Top Posts

推荐排行榜

Copyright ©2018 平和的心

深入了解HBASE架构相关推荐

  1. 大数据时代数据库-云HBase架构生态实践

    2019独角兽企业重金招聘Python工程师标准>>> 摘要: 2018第九届中国数据库技术大会,阿里云高级技术专家.架构师封神(曹龙)带来题为大数据时代数据库-云HBase架构&a ...

  2. Hbase架构与原理

    HBase是Apache Hadoop中的一个子项目,Hbase依托于Hadoop的HDFS作为最基本存储基础单元,通过使用hadoop的DFS工具就可以看到这些这些数据存储文件夹的结构,还可以通过M ...

  3. 第一百零八期:比较容易理解的Hbase架构全解,10分钟学会,建议收藏

    依然是Hadoop组件的讲解,今天说到HBase 架构,都是一字一句打出来的,希望各位转发加关注,会一直给大家写优质的内容. 作者:IT技术管理那些事儿 依然是Hadoop组件的讲解,今天说到HBas ...

  4. 从零单排HBase 02:全面认识HBase架构(建议收藏)

    作者 | 阿丸笔记 责编 | 徐威龙 封图| CSDN 下载于视觉中国 在网上看过很多HBaes架构相关的文章,内容深浅不一,直到发现了一篇MapR官网的文章,写得实在太生动了. https://ma ...

  5. 深入HBase架构解析(二)【转】

    转自:http://www.blogjava.net/DLevin/archive/2015/08/22/426950.html 前言 这是<深入HBase架构解析(一)>的续,不多废话, ...

  6. 带你了解 HBase 数据模型和 HBase 架构

    摘要:HBase 是一个面向列的 NoSQL 数据库. 本文分享自华为云社区<HBase 架构:HBase 数据模型 & HBase 读/写机制>,作者: Donglian Lin ...

  7. hbase major_compact 文件会变小吗_图解式学习:可能是最易懂的Hbase架构原理解析(二)...

    数据修改 小史:不过吕老师,我还有问题啊,我记得 HDFS 是不能随机修改文件的,只能追加,那么 HBase 里的数据是不是写了之后就不能改也不能删除呢? 吕老师:删除同样是追加一条版本最新的记录,只 ...

  8. 每日积累【Day 3】Hbase架构深入学习

    Hbase架构深入学习 Hbase ​ Apache HBase建立在HDFS之上的分布式.基于列存储的非关系型数据库:具有可靠.稳定.自动容错.多版本等特性:HBase实际上是Google BigT ...

  9. HBase --------- 深入了解HBase架构(架构组建及HBase工作原理)

    HBase架构组件 从物理结构上讲,HBase由三种类型的服务器构成主从式架构.Region Servers为数据的读取和写入提供服务.当访问数据时,客户端直接和Region Servers通信.Re ...

  10. hbase学习教程(一):hbase的概述和hbase架构及基本组件

    一.hbase的概述 概述 HBase是一个构建在HDFS上的分布式列存储系统: HBase是基于Google BigTable模型开发的,典型的key/value系统: HBase是Apache H ...

最新文章

  1. ISME:基于大数据准确预测土壤的枯萎病发生
  2. thinkphp框架细节
  3. 2021年6月程序员工资排行榜,南京这是怎么了?有啥大动作吗?
  4. JDK8安装及设置环境变量
  5. 13.2System类中的常用方法
  6. Scala主构造方法和辅助构造方法
  7. Numpy:高性能科学计算和数据分析的基础包
  8. Swift基础学习(二)数据类型
  9. 其实企业的C++人最清楚企业的问题
  10. 分别用雅可比(Jacobi)迭代法和高斯—塞德尔(Gauss—Seidel)迭代法求解线性方程组(转载)
  11. 关于Python的随机数模块,你必须要掌握!
  12. Visual Assist安装完之后的文件复制路径
  13. kafka consumer group 定义
  14. c# 指定打开某个路径下的CMD_C# 插入、删除Excel分页符
  15. Win10+VS2019+opencv-4.1.0 学习一:显示一张图片
  16. CC00010.hadoop——|HadoopImpala.V10|——|Impala.v10|集群实现|负载均衡.v01|
  17. Exchange 2007 被攻击
  18. 在电脑上安装了百度一键root工具后,启动adb提示:adb server version (31) doesn't match this client (36); killing...
  19. Linux下的文本编辑器介绍
  20. RSME,MSE,R2等指标的解释与思考

热门文章

  1. [文献阅读]——Bridging Subword Gaps in Pretrain-Finetune Paradigm for Natural Language Generation
  2. 二维码扫描-zbar的使用
  3. Docker 进阶篇
  4. 【已解决】cpu版mxnet安装
  5. 达内-网络工程-IP地址的认识以及二进制与十进制的转换方法
  6. Error while building/deploying project...When executing step qmake——Qt Creator快速排错
  7. Android 快速绘制一个圆角矩形
  8. 关于计算机知识竞赛的介绍,关于计算机知识竞赛的方案
  9. 解决VMware Tools无法安装的问题
  10. 交通信号灯控制系统(8051单片机中断实验)