hbase 查询固定条数_HBase原理深入
HBase读数据流程
HBase读操作
首先从zk中找到meta表的region信息,然后meta表中的数据,meta表中存储了用户的region信息
根据要查询的namespace、表名和rowkey信息,找到对应的真正存储要查询的数据的region信息
找到这个region对应的regionServer,然后发送请求
查找对应的region
先从metastore查找数据,如果没有,再从BlockCache读取。
HBase上的RegionServer的内存分为两个部分
一部分作为Memstore,主要用来写
另一部分作为BlockCache,主要用来读数据
如果BlockCache中也没有找到,再到StoreFile上进行读取
从storeFile中读取到数据之后,不是直接把结果数据返回给客户端, 而是把数据先写⼊入到BlockCache中,目的是为了加快后续的查询;然后在返回结果给客户端。
HBase写数据流程
HBase写操作
首先从zk找到meta表的region位置,然后读取meta表中的数据,meta表中存储了用户表的region信息
根据要查询的namespace、表名和rowkey信息,找到对应的真正存储要查询的数据的region信息
找到这个region对应的regionServer,然后发送请求
把数据写到HLog(write ahead log。WAL:预写入日志)和memstore各一份(写到Region里列族对应的Store的内存)
Memstore 达到阈值后把数据刷到磁盘,生产storeFile
删除HLog中的历史数据
HBase的flush(刷写)及compact(合并)机制
Flush机制
当memstore的大小超过这个值的时候会flush到磁盘,默认是128M
<property><name>hbase.hregion.memstore.flush.sizename><value>134217728value>property>
当memstore中的数据时间超过1小时,会flush到磁盘
<property><name>hbase.regionserver.optionalcacheflushintervalname<value>3600000value>property>
Hregion的所有的memstore的大小(一个RegionServer会有多个Region,一个Region会有多个store,也就有多个memstore),所有的memstore的大小超过堆大小的一定比例会触发flush到磁盘的操作,默认是堆大小的40%
<property><name>hbase.regionserver.global.memstore.sizename><value>0.4value>property>
手动flush
flush tableName
阻塞机制
以上介绍的是Store中memstore数据刷写磁盘的标准,但是Hbase中是周期性(定时,默认是10S)的检查是否满足以上标准,满⾜则进⾏刷写,但是如果在下次检查到来之前,数据疯狂写入Memstore中,会出现什什么问题呢?
会触发阻塞机制,此时无法写⼊数据到Memstore,数据无法写入Hbase集群。
memstore中数据达到512MB
计算公式:hbase.hregion.memstore.flush.size*hbase.hregion.memstore.block.multiplier
hbase.hregion.memstore.flush.size刷写的阀值,默认是 134217728,即128MB
hbase.hregion.memstore.block.multiplier是一个倍数,默认是4。
RegionServer全部memstore达到规定值
hbase.regionserver.global.memstore.size.lower.limit是0.95
hbase.regionserver.global.memstore.size是0.4,
堆内存总共是 16G,
触发刷写的阈值是:(0.95 * 0.4 * 16) = 6.08GB
触发阻塞的阈值是:(0.4 * 16) = 6.4GB
当发生阻塞的时候,无法写入HBase,那么如何解决?
调大memstore的hbase.hregion.memstore.flush.size内存大小设置
让RegionServer占有JVM堆大小更多一些
Compact合并机制
合并的原因:减少文件的数量,提高查询的时候扫描的性能
在HBase中主要存在两种类型的Compact合并
minor compact ⼩合并
会将Store中多个HFile(StoreFile)合并成一个大的HFile(默认最少3个,最多10个)
这个过程中,删除和更新的数据仅只是做了标记,并没有物理移除,这种合并的触发频率很高。
minor compact⽂件选择标准由以下⼏个参数共同决定:
<property> <name>hbase.hstore.compaction.minname> <value>3value>property> <property> <name>hbase.hstore.compaction.maxname> <value>10value>property> <property> <name>hbase.hstore.compaction.min.sizename> <value>134217728value>property> <property> <name>hbase.hstore.compaction.max.sizename> <value>9223372036854775807value>property>
触发条件
memstore flush
在进行memstore flush前后都会进行判断是否触发compact
定期检查线程
周期性检查是否需要进行compaction操作,由参数:hbase.server.thread.wakefrequency决定,默认值是10000 millseconds
major compact 大合并
合并Store中所有的HFile为一个HFile
这个过程有删除标记的数据会被真正移除,同时超过单元格maxVersion的版本记录也会被删除。合并频率⽐较低,默认7天执⾏⼀次,并且性能消耗非常大,建议⽣产关闭(设置为0),在应用空闲时间手动触发。⼀般可以是手动控制进行合并,防⽌出现在业务高峰期。
major compaction触发时间条件
<property> <name>hbase.hregion.majorcompactionname> <value>604800000value>property>
手动触发
##使⽤major_compact命令major_compact tableName
Region拆分机制
Region中存储的是⼤量的rowkey数据 ,当Region中的数据条数过多的时候,直接影响查询效率.当Region过大的时候.HBase会拆分Region , 这也是Hbase的⼀个优点
拆分策略
Hbase拆分策略一共有以下几种:
ConstantSizeRegionSplitPolicy(0.9版本以前默认的切分策略。)
当region⼤小⼤于某个阈值(hbase.hregion.max.filesize=10G)之后就会触发切分,一个region等分为2个region。
但是在生产线上这种切分策略却有相当大的弊端:切分策略对于大表和小表没有明显的区分。阈值(hbase.hregion.max.filesize)设置较大对大表⽐比较友好,但是小表就有可能不会触发分裂,极端情况下可能就1个,这对业务来说并不是什么好事。如果设置较小则对⼩表友好,但一个大表就会在整个集群产⽣大量的region,这对于集群的管理、资源使用、failover来说都不是一件好事。
IncreasingToUpperBoundRegionSplitPolicy(0.94版本~2.0版本默认切分策略)
切分策略稍微有点复杂,总体看和ConstantSizeRegionSplitPolicy思路相同,一个region⼤小⼤于设置阈值就会触发切分。但是这个阈值并不像 ConstantSizeRegionSplitPolicy是一个固定的值,而是会在一定条件下不断调整,调整规则和region所属表在当前regionserver上的region个数有关系.
region split的计算公式是:
regioncount^3 * 128M * 2,当region达到该size的时候进⾏split 例如:
第一次split:1^3 * 256 = 256MB
第二次split:2^3 * 256 = 2048MB
第三次split:3^3 * 256 = 6912MB
第四次split:4^3 * 256 = 16384MB > 10GB,因此取较⼩的值10GB 后面每次split的size都是10GB了SteppingSplitPolicy(2.0版本默认切分策略略)
这种切分策略的切分阈值⼜发生了变化,相比 IncreasingToUpperBoundRegionSplitPolicy 简单了一些,依然和待分裂region所属表在当前 regionserver上的region个数有关系,如果region个数等于1,切分阈值为flush size(默认128M) * 2,否则为MaxRegionFileSize(10G)。这种切分策略对于⼤集群中的大表、小表会⽐比 IncreasingToUpperBoundRegionSplitPolicy 更加友好,⼩表不不会再产⽣⼤量的⼩region,⽽是适可⽽止。
KeyPrefixRegionSplitPolicy
根据rowKey的前缀对数据进行分组,这里是指定rowKey的前多少位作为前缀,⽐如rowKey都是16位的,指定前5位是前缀,那么前5位相同的rowKey在进⾏region split的时候会分到相同的region中。
DelimitedKeyPrefixRegionSplitPolicy
保证相同前缀的数据在同一个region中,例如rowKey的格式为:userid_eventtype_eventid,指定的delimiter为 _ ,则split的的时候会确保userid 相同的数据在同一个region中。
DisabledRegionSplitPolicy
不启用⾃动拆分, 需要指定⼿动拆分
RegionSplitPolicy的应⽤
Region拆分策略可以全局统一配置,也可以为单独的表指定拆分策略。
通过hbase-site.xml全局统一配置(对hbase所有表生效)
<property><name>hbase.regionserver.region.split.policyname><value>org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicyvalue>property>
通过Java API为单独的表指定Region拆分策略
HTableDescriptor tableDesc = new HTableDescriptor("test1"); tableDesc.setValue(HTableDescriptor.SPLIT_POLICY, IncreasingToUpperBoundRegionSplitPolicy.class.getName()); tableDesc.addFamily(new HColumnDescriptor(Bytes.toBytes("cf1")));admin.createTable(tableDesc);
通过HBase Shell为单个表指定Region拆分策略
create 'test2', {METADATA => {'SPLIT_POLICY' =>'org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy'}},{NAME => 'cf1'}
HBase表的预分区
为什么要预分区
当⼀个table刚被创建的时候,Hbase默认的分配⼀个region给table。也就是说这个时候,所有的读写请求都会访问到同一个regionServer的同一个region中,这个时候就达不到负载均衡的效果了,集群中的其他regionServer就可能会处于比较空闲的状态。解决这个问题可以用pre-splitting,在创建table的时候就配置好,生成多个 region。
增加数据读写效率
负载均衡,防⽌数据倾斜
⽅便集群容灾调度region
每⼀个region维护着startRow与endRowKey,如果加入的数据符合某个region维护的rowKey范围,则该数据交给这个region维护
手动指定预分区
create 'person','info1','info2',SPLITS => ['1000','2000','3000']
也可以把分区规则创建于文件中
vim split.txt
文件内容
aaa bbb ccc ddd
执⾏
create 'student','info',SPLITS_FILE => '/root/hbase/split.txt'
Region合并
Region合并说明
Region的合并不是为了性能,而是为了出于维护的目的
如何进行Region的合并
通过Merge类冷合并Region
需要先关闭集群
需求:需要把Student表中的2个Region数据进行合并
这⾥通过org.apache.hadoop.hbase.util.Merge类来实现,不需要进入hbase shell,直接执⾏(需要先关闭hbase集群):
hbase org.apache.hadoop.hbase.util.Merge student \ student,,1595256696737.fc3eff4765709e66a8524d3c3ab42d59. \ student,aaa,1595256696737.1d53d6c1ce0c1bed269b16b6514131d0.
通过online_merge热合并Region
不需要关闭集群
与冷合并不同的是,online_merge的传参是Region的hash值,而Region的hash值就是Region名称的最后那段在两个.之间的字符串部分。需求:需要把lagou_s表中的2个region数据进行合并: student,,1587392159085.9ca8689901008946793b8d5fa5898e06. \ student,aaa,1587392159085.601d5741608cedb677634f8f7257e000.需要进⼊入hbase shell:merge_region 'c8bc666507d9e45523aebaffa88ffdd6','02a9dfdf6ff42ae9f0524a3d8f4c7777'
成功后在观察页面
hbase 查询固定条数_HBase原理深入相关推荐
- txt文件分解为固定条数的文件
#-*- coding: UTF-8 -*- # import linecache # count = linecache.getline(filename,linenum) # 读取文件某一行的内容 ...
- mysql 查询条数优化_MySQL优化总结-查询总条数
1.COUNT(*)和COUNT(COL) COUNT(*)通常是对主键进行索引扫描,而COUNT(COL)就不一定了,另外前者是统计表中的所有符合的纪录总数,而后者是计算表中所有符合的COL的纪录数 ...
- mongodb count查询记录条数
2019独角兽企业重金招聘Python工程师标准>>> count查询记录条数 使用count()方法查询表中的记录条数,例如,下面的命令查询表users的记录数量: db.user ...
- linux命令查询空行条数
例如编辑一个文本,插入3个空行,2个空格,5条正常数据: 显示非空行 grep -v '^$' a.txt –会打印出7条数据(包含空格行) 显示非空行 grep -v '^\s*$' a.txt – ...
- 解决Mybatis-Plus或PageHelper多表分页查询总条数不对问题
文章目录 前言 一.问题说明 1.引入依赖 2.Mybatis-Plus配置 3.创建mapper层 4.编写xxxMapper.xml文件 5.测试一(不传任何条件,只分页) 5.1.结果总结 5. ...
- sql 查询记录条数
--查询条数 SELECT rows FROM sysindexes WHERE id = OBJECT_ID('PerCardPositionHist') AND indid < 2
- mybatis查询记录条数
这几天在学SSM框架,今天在SSM框架中根据某个条件查询mysql数据库中的记录条数,碰到一些问题,记录一下 User.xml <select id="userNameValidate ...
- mysql 查询数据条数_MySQL优化总结-查询总条数
1.COUNT(*)和COUNT(COL) COUNT(*)通常是对主键进行索引扫描,而COUNT(COL)就不一定了,另外前者是统计表中的所有符合的纪录总数,而后者是计算表中所有符合的COL的纪录数 ...
- oracle 设置查询条数,SQL、MySQL、Oracle、 Sqlite、Informix数据库查询指定条数数据的方法...
SQL查询前10条的方法为: select top X * from table_name --查询前X条记录,可以改成需要的数字,比如前10条. select top X * from table_ ...
最新文章
- java canvas 画图片_[Java教程][HTML5] Canvas绘制简单图片
- 洛谷——P1540 机器翻译
- 大话主题敏感PageRank
- 通过COM组件在Web上实现Kinect骨骼追踪、声控截屏保存的功能
- 解决:which: no java in (/root/chengxu/maven/apache-maven-3.5.2/bin:/usr/local/sbin:/usr/local/bin:/usr
- HTML文本下划线效果,聊聊CSS中文本下划线_CSS, SVG, masking, clip-path, 会员专栏, text-decoration 教程_W3cplus...
- 【原创】.Net4.0中使用Razor制作多风格网站
- 磁盘位置_Win10创建和附加虚拟硬盘|Win10怎么创建VHD虚拟磁盘
- MYSQL的安装基础语法笔记
- 接口性能测试方案分析
- 基于SSM的网上购物系统
- 2022Java后端之美团笔试题
- 打开计算机出现酷我音乐删不掉,删除 “我的电脑” 里的 “酷我音乐” 快捷方式...
- mysql 计算自然周
- 如何删除PDF中指定的一页或几页?
- 西安三本计算机专业可报院校,西安三本大学前十名, 西北大学现代学院仅第四...
- 中国互联网著名天使投资人及投资领域
- 帕金森病会引起哪些并发症
- 【青春记忆】叹!雪……
- 医疗数字化转型|浪潮信息为智慧医疗打造坚实的存储基座
热门文章
- mongdb 建立了索引唯一性还能重复插入?_「数据库系列」Postgres性能调优——Index...
- java面向对象小程序_java运用面向对象的思想实现计算器的小程序
- c#窗口科学计算机,c#窗口科学计算器连等如何实现,大神帮忙一下好么?
- Codeforces Round #647 (Div. 2) - Thanks, Algo Muse!(AB)
- excel python插件_利用 Python 插件 xlwings 读写 Excel
- go编译成c语言,Go语言是怎么完成编译的
- 动态调用类 java_Java动态调用类中方法
- python3基础知识_python3基础知识梳理
- 移动namenode、secondarynamenode和jobTracker的节点(使其成为独立节点)
- UIViewController详解