坚持思考,就会很酷

Bitcask 是什么?

Bitcask 是一种很有趣的存储模型的设计,这是一种底层格式为日志模样的 kv 存储。Bitcask 起源于 Riak 分布式数据库,Bitcask 论文 详细介绍了它的由来。

Bitcask 解决哪些的问题?

简单梳理了下 Bitcask 论文中提到的架构设计目标:

  1. 读写的低时延;

  2. 高吞吐,在随机写入的场景;

  3. 数据量级要比 RAM 大;

  4. 持久化后的存储,故障恢复也要方便;

  5. 也要方便备份,方便恢复;

符合这些目标的会是哪些场景呢?下面一步步看一下。

Bitcask 架构设计

1   聊聊整体设计

要点一:基于文件系统,而非裸盘

这样管理空间就方便了,而且可以把一些功能交给内核文件系统,比如读 cache,写 buffer 等。

要点二:一个磁盘只有一个写入点

换句话说只有一个可写的文件。这个文件叫做 active data file,其他的为只读文件。active data file 写到一个预定的阈值大小之后,就可以轮转成只读的文件。

比如,active data file 写到 10 G 大小就不写了,切成只读模式,新建一个文件来写。这个新文件就变成 active data file 。

要点三:active data file 只有 append 写入

日志文件的标配嘛,永远 append ,这样才能保证最大程度的顺序 IO ,压榨出机械硬盘的顺序性能。

要点四:删除也是写入

这个其实承接上面的。也是日志类型文件采用的手段,外面看来的原有对象的更新其实是操作日志的记录,这样才能最大限度的保持顺序 IO 。

要点五:日志式文件本质是无序文件,依靠内存索引

在 LSM 的架构中也提供,日志文件只做 append ,从用户内容来看是无序的(写入时间上看是有序的),所以为了解决读的问题,必须要靠各种索引结构来解决,在 LSM 里就是通过构建内存的跳表来解决索引的问题。

在 Bitcask 也是如此,Bitcask 在内存中构建所有 key 的 hash 表解决这个问题。

要点六:空间的回收叫做 merge ,其实就是 compact

Bitcask 内部的回收流程叫做 merge ,其实就是 compact ,原理很简单:遍历文件,读旧写新,遇到标记删除了的内容丢掉即可

要点七:文件 merge 之后,顺带生成一份 “hint file”

Bitcask 的索引全构建在内存,换句话说,就是在进程启动的时候要解析所有的底层日志文件。那这时候底层文件的大小内部对象数量的多少就决定了你构建的快慢,Bitcask 为了加速构建,所以提前把一些元数据信息放到尾端。这样进程启动的时候,就能直接读 “hint file” 来获取元数据了。

2   看看架构图

Bitcask 是基于文件系统的:



Bitcask 只有一个可写的文件。可写的文件叫做 active file,只读的叫做非 active:



Bitcask 它的文件是有格式的:


Bitcask 它内存的索引大概是这样的:



3   写入

写入的过程很简单,Bitcask 先写文件,持久化落盘之后更新内存 hash 表。

总结下写的流程

  1. 写日志文件,返回 file_id, offset, length 等关键信息;

  2. 更新内存 hash 表内容,把用户 key 和上面的位置信息关联起来;

思考两点

  1. 从 IO 次数来看,磁盘 IO 只需要整体落一次就够了,不需要单独写索引;

  2. 从 IO 模型来看,写永远都是顺序 IO,对机械盘来讲,性能最优;

4   读取

读取的过程很简单,先在内存 hash 表中查找用户 key ,从而获取到用户 value 在日志文件的位置。

file_id: 标示在哪个文件;
offset: 标示在文件的开始位置;
length: 标示值的长短(结束位置);

通过以上三个信息,就能找到对应的文件取回数据了。



总结下读的流程

  1. 在内存 hash 表中找到 key 的值的文件位置;

  2. 下盘读数据;

思考两点

  • 从 IO 次数来看,这里性能应该还是不错的,因为只有读数据的时候才需要磁盘 IO ;

  • 从 IO 模型来考虑,读是非常大概率导致随机 IO 的,但这个可以依赖于文件系统的缓存,读过的数据将可以加速访问;

5   回收

Bitcask 回收的流程叫做 merge,其实很简单,在日志文件中删除的标记已经打上了,内存里又有全部索引,那只需要把有效的数据读出来写到新文件,然后把旧文件一删,就完成了空间的释放。

但简单的东西往往有内涵,在前面我们提到,用户的写入为了顺序化采用了日志的格式,但是 merge 这个是后端程序有时候会和前段的写入并发执行的,但底下磁盘只有一块,两个都是顺序 IO ,但并发起来就成随机 IO 了。所以它的精细之处就在于 merge 的时机选择和速率,这个也是它的含金量之一。

前面提到,Bitcask 为了索引 key/value 的位置,在内存中构建了全部的索引关系。这个构建在初始化的时候可能会非常耗时,因为要遍历全部的日志文件。怎么解决这个问题呢?

干脆直接把这个索引关系在合适的时机准备好,进程启动加载的时候,直接读这部分数据就行了。

最合适的时机不就是 merge 过程嘛。merge 过程无论怎样都要遍历了一次文件,生成一份索引关系归档起来就是顺手的事情。这份归档的索引关系在 Bitcask 里叫做 “hint file” 。

划重点:内存的索引内容和文件的 “hint file” 是对应的。

不一样的思考

每一种设计都有它针对的场景,通用的东西往往是平庸的。Bitcask 它也是如此,它不适用于所有场景,那它适用哪些场景呢?

Bitcask 主要是持久化日志型文件加上易失的内存 hash 表组成。

这里有很多可以思考的关键点:

  1. 内存 hash 表到底有多大?

  2. Bitcask 它适合存储多大的数据?

  3. Bitcask 它适合存储大对象还是小对象?

为了回答上面几个问题,需要假定一些数据结构:

日志结构:

|crc|timestamp|key size|value size|key|value|

我们假设前面头部元数据用 4+4+4+4 个字节。

hash 表的结构:

key -> |file_id| record size | record offset | timestamp |

假定是 4+4+4+4 个字节(注意,由于这里用 offset 用 4 个字节表示,所以日志文件寻址范围在 0-4G 之间)。

进一步假设用户 key 的平均大小为 32 字节。

1   内存 hash 表到底有多大?

一个 key/value 在内存中最少占用 32+16 字节,假设 32 GiB 的内存,那么可以存储 32 GiB/ 48 Byte = 715,827,882 个索引。

7 亿个健值对?

貌似还挺多,但也不一定。很多人对这个没什么概念,我们再推进一个假设,假设用户 value 平均大小是 8 KiB,那么就能算得的总空间是 ( 715,827,882 * 8 * 1024 ) / ( 1024 * 1024 * 1024 * 1024 ) = 5.3 TiB 。

5.3 TiB ?

实话实说,貌似不太大。现在一个机械盘 16 TiB 的都很普遍了。

现在反过来推算下,假设现在有一个 16 TiB 的盘,用户 key 平均 32 字节,value 平均 8 KiB,如果写满的话,需要多少内存?

算一下,( 16 TiB / (16+32+8KiB) ) * 48 Byte = 95 GiB ,一个 16 TiB 的盘写满的话需要 95 GiB 内存来存储它的索引。这其实是很大的开销,因为一台机器可能 64 块盘。。。。

95 GiB * N 的内存消耗能抗的住吗?

不一定,看你公司的机型喽。这都是钱嘛,毕竟内存是很贵的

索引全内存构建,这个构建时间你能接受吗?

不一定,如果说满载的数据构建要 1 个小时,你还会接受吗?当然不。

2   Bitcask 它适合存储多大的数据?

那到底 Bitcask 适合存储多少数据呢?

这个没有标准答案,还是要看场景分析。就拿我上面举的例子来讲,对于 60 盘( 单盘 16 TiB )的场景来讲,原生的Bitcask 可能就不大适合。

对于某些动辄就说 Bitcask 适合存储海量小对象而不加任何前提的说法,奇伢觉得还是不够严谨。

在 这篇Bitcask 论文[1] 中其实有这么一段话

The tests mentioned above used a dataset of more than 10×RAM on the system in question, and showed no sign of changed behavior at that point. This is consistent with our expectations given the design of Bitcask.

它这里的基本目标好像是 10 倍的 RAM ?

假设内存 32 GiB,那换算下就是 320 GiB 的磁盘空间。这,似乎是内存+ SSD 盘更适合 Bitcask 的场景,而不是真正超大容量 HDD 磁盘存储的场景。

3   Bitcask 它适合存储大对象还是小对象?

这个就很有意思了,Bitcask 能不能存储海量数据相信通过的计算读者已经有数了。但是它适合的是大对象还是小对象呢?

这个其实还是比较明显的,Bitcask 无疑是适合小对象的。理由很简单,它从设计上就规定了只有一个写入点( active file ),也就是说用户的写入是串行的,那么如果说用户的 value 特别大,比如 100 M,那么系统吞吐会非常差(比如说,这个时候来了个 1K 的对象,却只能排队)。而如果都是些小对象,那么完全可以聚合很多 key/value ,一次性落盘。这样既满足了顺序 IO ,又提供了很好的系统的吞吐能力。

所以这里很重要的一点是:对象的大小。架构的设计受此影响颇深。

抛出一个思考的问题:你认为什么样的才是小对象?

奇伢认为,大小不够一笔 IO 的都可以认为是小对象。比如说某系统 IO 落盘以 1M 为单位,那么 1M 以内的都可认为是小的对象,这样就可以很好的做到 IO 的聚合,这也是 Bitcask 非常适合的场景。这样就能做到:即使底下是串行的写入也能提供用户并发的性能。当然这个并不严谨,实际情况要具体分析。

项目实现

Riak 是以 Erlang 编写的一个高度可扩展的分布式数据存储,是一个很出名的 nosql 的数据库 , Bitcask 的诞生和它关系密切 。

总结

  1. Bitcask 展示了一个极富思考的存储架构,它简单有效,并且可以有很多变形;

  2. Bitcask 并不是一个最快的存储系统,但是它性能足够,并且简单、稳定;

  3. 估算的能力很重要,结合自己的场景,估算的数据能指导架构设计;

  4. Bitcask 无疑是适合小对象的。小对象的定义?奇伢浅显的认为一次 IO 能装的下的都可以认为是小对象;

  5. Bitcask 虽然只有一个可写文件,并且是 append 串行写,但通过聚合小对象、批量落盘对外可以体现出不错的并发能力哦;

  6. Bitcask 适合小对象,但是不适合海量对象。主要是内存索引的限制。当然也不绝对的。原生论文只是提供了一个设计思路,我们可以在此基础上有很多变形设计;

参考资料

[1]

Bitcask 论文: https://riak.com/assets/bitcask-intro.pdf

存储架构|Bitcask 引擎的设计,秒!相关推荐

  1. 京东App秒级百G日志传输存储架构设计与实战

    本文作者:平台业务研发部-武伟峰,数据与智能部-李阳 背景 在日常工作中,我们通常需要存储一些日志,譬如用户请求的出入参.系统运行时打印的一些info.error之类的日志,从而对系统在运行时出现的问 ...

  2. 微信后台基于时间序的新一代海量数据存储架构的设计实践

    本文作者腾讯WXG后台开发工程师jeryyzhang,收录时有改动,感谢原作者的分享. 1.引言 大约3年前,微信技术团队分享了<微信后台基于时间序的海量数据冷热分级架构设计实践>一文,文 ...

  3. 深入解读 MySQL 架构设计原理,剖析存储架构选型核心

    孙玄,江湖人称"玄姐",前58集团技术委员会主席,前转转二手交易平台首席架构师.今天想跟你聊点儿企业里那些年薪百万的架构师,他们的架构设计思维是如何升级的,以及他们是如何玩转 My ...

  4. GaussDB(for MySQL)如何在存储架构设计上做到高可靠、高可用

    摘要: GaussDB(for MySQL)通过ND算子下推解决存储节点和计算节点之间的传输速度,减少网络开销这个难题. 数据库作为高效稳定处理海量数据交易/分析的坚强数据底座,底层架构设计的重要性不 ...

  5. IM开发基础知识补课(二):如何设计大量图片文件的服务端存储架构?

    1.前言 一个完善的IM系统中通常充斥着大量的图片内容,包括:用户头像.图片消息.相册.图片表情等等,那么在做服务端架构设计时该如何存储这些图片呢? 本文分享的是典型Web应用中大量图片的服务端存储加 ...

  6. 快手春节红包背后,高并发存储架构设计

    导语 | 2020年春节,腾讯云文件存储(CFS)在通过了预演层层压测的选拔后成为快手广告推荐业务的护旗手,以100%的可用性护航了快手春节红包活动.本文是腾讯云高级工程师陈宏亮在「云加社区沙龙onl ...

  7. 深入浅出大数据存储架构,如何设计才能满足需求?

    "与数据同行"开通了微信群,现已汇聚了4000位小伙伴了,加我为微信好友(微信号:fuyipingmnb)申请入群,让我们共建一个数据社区,<与数据同行>致力于为您提供 ...

  8. 海量时序数据低成本存储架构设计

    导读 近些年来得益于传感器技术.无线网络技术.云计算和人工智能技术的发展,物联网的基础设施日益完善,并应用到了新能源.智能家居.车联网.智慧工业等众多领域中,实现了"人与物".&q ...

  9. 企业级自定义表单引擎解决方案(二)--架构及核心模块设计

    .net core研发的自定义表单引擎,采用强大的规则引擎将所有的业务串联起来的,和其他低代码平台是有本质的区别的,目标是完全解放繁琐的CRUD工作. 先总体介绍一下大概的架构和核心模块设计.先上一张 ...

最新文章

  1. (转)hibernate 注解的问题(异常)集合
  2. oracle创建视图触发器
  3. jupyter 数据分析可视化案例_Python数据分析及可视化实例之Anaconda、Jupyter简介
  4. Bash数组变量的赋值
  5. 深入浅出Docker(三):Docker开源之路
  6. sql基于聚合结果集取最大值_SQL超入门第三篇:写给产品、运营、分析师的SQL教程...
  7. 体验MSN聚酷(Juku)
  8. 传智播客java基础入门pdf
  9. php怎么自动识别车牌号,车牌号自动识别系统怎么录入,很多你不知道的潜规则...
  10. wordpress入门主题_WordPress播客入门指南
  11. Flex 3 预览版目前已经上架 Cydia BigBoss 源
  12. 纵横算法之三:算法到底考什么
  13. python学习笔记(CSS)
  14. Java项目部署到云服务器的思路
  15. 柠檬班性能测试day05-0526-04环境安装配置
  16. C语言:fscanf函数与fprintf函数——格式化读写函数
  17. 摸鱼三天,我写了一个通用的组建树TreeUtil工具
  18. 双色球中奖概率(彩市有风险,需谨慎投注!)
  19. 单片机c语言置位程序流程图,单片机c语言教程第十二章--C51开关分支语句
  20. ue5 小知识点 skeleton

热门文章

  1. 简单介绍python format格式化和数字格式化
  2. ubuntu mysql 5.7.19_在Ubuntu19下安装Mysql-5.7.24
  3. 阶乘分解质因数[经典题组合数学枚举质因子]
  4. redisson的锁的类型_绝对干货:利用redisson完成分布式锁功能
  5. 算法竞赛知识合集 目录(博客中转站)
  6. ICPC 2005 hangzhou Generator (UVA1358)KMP + 期望DP / 高斯消元
  7. 【数学专题】整除相关 - 素数
  8. 解题报告:SP2713 GSS4 - Can you answer these queries IV(GSS线段树八部曲之四)
  9. Liunx下MySQL常用命令
  10. F - Prime Path POJ - 3126