LevelDB 的大致原理已经讲完了,本节我们要亲自使用 Java 语言第三方库 leveldbjni 来实践一下 LevelDB 的各种特性。这个库使用了 Java Native Interface 计数将 C++ 实现的 LevelDB 包装成了 Java 平台 的 API。其它语言同样也是采用了类似 JNI 的技术来包装的 LevelDB。

Maven 依赖

下载下面的依赖包地址,你就可以得到一个支持全平台的 jar 包。LevelDB 在不同的操作系统平台会编译出不同的动态链接库形式,这个 jar 包将所有平台的动态链接库都包含进来了。

org.fusesource.leveldbjni

leveldbjni-linux64

1.8

增查删 API

这个例子中我们将自动创建一个 LevelDB 数据库,然后往里面塞入 100w 条数据,再取出来,再删掉所有数据。这个例子在我的 Mac 上会运行了大约 10s 的时间。也就是说读写平均 QPS 高达 30w/s,完全可以媲美 Redis,不过这大概也是因为键值对都比较小,在实际生产环境中性能应该没有这么高,它至少应该比 Redis 稍慢一些。import static org.fusesource.leveldbjni.JniDBFactory.factory;

import java.io.File;

import java.io.IOException;

import org.iq80.leveldb.DB;

import org.iq80.leveldb.Options;

public class Sample{

public static void main(String[] args) throws IOException{

Options options = new Options();

options.createIfMissing(true);

DB db = factory.open(new File("/tmp/lvltest"), options);

try {

for (int i = 0; i

byte[] key = new String("key" + i).getBytes();

byte[] value = new String("value" + i).getBytes();

db.put(key, value);

}

for (int i = 0; i

byte[] key = new String("key" + i).getBytes();

byte[] value = db.get(key);

String targetValue = "value" + i;

if (!new String(value).equals(targetValue)) {

System.out.println("something wrong!");

}

}

for (int i = 0; i

byte[] key = new String("key" + i).getBytes();

db.delete(key);

}

} finally {

db.close();

}

}

}

我们再观察数据库的目录中,LevelDB 都创建了那些东西

这个目录里我们看到了有很多 sst 扩展名的文件,它就是 LevelDB 的磁盘数据文件,有些 LevelDB 的版本数据文件的扩展名是 ldb,不过内部格式一样,仅仅是扩展名不同而已。其中还有一个 log 扩展名的文件,这就是操作日志文件,记录了最近一段时间的操作日志。其它几个大些名称文件我们先不必去了解,后续我们再仔细解释。

将这个目录里面的文件全部删掉,这个库就彻底清空了。

也许你会想到上面的例子中不是所有的数据最终都被删除了么,怎么还会有如此多的 sst 数据文件呢?这是因为 LevelDB 的删除操作并不是真的立即删除键值对,而是将删除操作转换成了更新操作写进去了一个特殊的键值对,这个键值对的值部分是一个特殊的删除标记。

待 LevelDB 在某种条件下触发数据合并(compact)时才会真的删除相应的键值对。

数据合并

LevelDB 提供了数据合并的手动调用 API,下面我们手动整理一下,看看整理后会发生什么public void compactRange(byte[] begin, byte[] end)

这个 API 可以选择范围进行整理,如果 begin 参数为 null,那就表示从头开始,如果 end 参数为 null,那就表示一直到尾部。public static void main(String[] args) throws IOException{

Options options = new Options();

options.createIfMissing(true);

DB db = factory.open(new File("/tmp/lvltest"), options);

try {

db.compactRange(null, null);

} finally {

db.close();

}

}

运行了大约 1s 多点时间,完毕后我们看到目录中 sst 文件没有了

如果我们没有手工调用数据整理 API,LevelDB 内部也有一定的策略来定期整理。

读性能

如果我们将上面的代码加上时间打点,观察读写性能差异,你会发现一个有趣的现象,那就是写性能比读性能还要好,虽然本例中所有的读操作都是命中的。put: 3150ms

get: 4128ms

delete: 1983ms

这是因为写操作记完操作日志将数据写进内存后就返回了,而读操作有可能内存读 miss,然后要去磁盘读。之所以读写性能差距不是非常明显,是因为 LevelDB 会缓存最近一次读取的数据块,而且我的个人电脑的磁盘是 SSD 磁盘,读性能都好。如果是普通磁盘,就会看出明显的性能差异了。

下面我们将读操作改成随机读,就会发现读写性能发生很大的差别for (int i = 0; i

int index = ThreadLocalRandom.current().nextInt(1000000);

byte[] key = new String("key" + index).getBytes();

db.get(key);

}

--------

put: 3094ms

get: 9781ms

delete: 1969ms

这时要改善读性能就可以借助块缓存了// 设置 100M 的块缓存

options.cacheSize(100 * 1024 * 1024);

------------

put: 2877ms

get: 4758ms

delete: 1981ms

同步 vs 异步

上一节我们提到 LevelDB 还提供了同步写的 API,确保操作日志落地后才 put 方法才返回。它的性能会明显弱于普通写操作,下面我们来对比一下两者的性能差异。public static void main(String[] args) throws IOException{

long start = System.currentTimeMillis();

Options options = new Options();

options.createIfMissing(true);

DB db = factory.open(new File("/tmp/lvltest"), options);

try {

for (int i = 0; i

byte[] key = new String("key" + i).getBytes();

byte[] value = new String("value" + i).getBytes();

WriteOptions wo = new WriteOptions();

wo.sync(true);

db.put(key, value, wo);

}

} finally {

db.close();

}

long end = System.currentTimeMillis();

System.out.println(end - start);

}

上面这个同步写操作足足花了 90s 多的时间。将 sync 选项去掉后,只需要 3s 多点。性能差距高达 30 倍。下面我们来简单改造一下上面的代码,让它变成间隔同步写,也就是每隔 N 个写操作同步一次,取 N = 100。WriteOptions wo = new WriteOptions();

wo.sync(i % 100 == 0);

运行时间变成了不到 5s。再将 N 改成 10,运行时间变成了不到 12s。即使是 12s,写的平均 QPS 也高达 8w/s,这还是很客观的。

普通写 VS 批量写

LevelDB 提供了批量写操作,它会不会类似于 Redis 的管道可以加快指令的运行呢,下面我们来尝试使用 WriteBatch,对比一下普通的写操作,看看性能差距有多大。public static void main(String[] args) throws IOException{

long start = System.currentTimeMillis();

Options options = new Options();

options.createIfMissing(true);

DB db = factory.open(new File("/tmp/lvltest"), options);

try {

WriteBatch batch = db.createWriteBatch();

for (int i = 0; i

byte[] key = new String("key" + i).getBytes();

byte[] value = new String("value" + i).getBytes();

batch.put(key, value);

if (i % 100 == 0) {

db.write(batch);

batch.close();

batch = db.createWriteBatch();

}

}

db.write(batch);

batch.close();

} finally {

db.close();

}

long end = System.currentTimeMillis();

System.out.println(end - start);

}

将批次数量 N 分别改成 10、100、1000,运行后可以发现耗时差不多,大约都是 2s 多点。这意味着批量写并不会大幅提升写操作的吞吐量。但是将 N 改成 1 后你会发现耗时和普通写操作相差无几,大约是 3s 多,再将 N 改成 2、5 等,耗时还是会有所降低,到 2s 多 左右就稳定了,此时提升 N 值不再有明显效果。这意味着批量写操作确实会比普通写快一点,但是相差也不会过大。它不同于 Redis 的管道可以大幅减少网络开销带来的明显性能提升,LevelDB 是纯内存数据库,根本谈不上网络开销。

那为什么批量写还是会比普通写快一点呢?要回答这个问题就需要追踪 LevelDB 的源码,还在这部分逻辑比较简单,大家应该都可以理解,所以这里就直接贴出来了。Status DB::Put(WriteOptions& opt, Slice& key, Slice& value) {

WriteBatch batch;

batch.Put(key, value);

return Write(opt, &batch);

}

很明显,每一个普通写操作最终都会被转换成一个批量写操作,只不过 N=1 。这正好解释了为什么当 N=1 时批量写操作和普通写操作相差无几。

我们再继续追踪 WriteBatch 的源码我发现每一个批量写操作都需要使用互斥锁。当批次 N 值比较大时,相当于加锁的平均次数减少了,于是整体性能就提升了。但是也不会提升太多,因为加锁本身的损耗占比开销也不是特别大。这也意味着在多线程场合,写操作性能会下降,因为锁之间的竞争将导致内耗增加。

为什么说批量写可以保证内部一系列操作的原子性呢,就是因为这个互斥锁的保护让写操作单线程化了。因为这个粗粒度锁的存在,LevelDB 写操作的性能被大大限制了。这也成了后来居上的 RocksDB 重点优化的方向。

快照和遍历

LevelDB 提供了快照读功能可以保证同一个快照内同一个 Key 读到的数据保持一致,避免「不可重复读」的发生。下面我们使用快照来尝试一下遍历操作,在遍历的过程中顺便还修改对应 Key 的值,看看快照读是否可以隔离写操作。public static void main(String[] args) throws IOException{

Options options = new Options();

options.createIfMissing(true);

DB db = factory.open(new File("/tmp/lvltest"), options);

try {

for (int i = 0; i

String padding = String.format("%04d", i);

byte[] key = new String("key" + padding).getBytes();

byte[] value = new String("value" + padding).getBytes();

db.put(key, value);

}

Snapshot ss = db.getSnapshot();

// 扫描

scan(db, ss);

// 修改

for (int i = 0; i

String padding = String.format("%04d", i);

byte[] key = new String("key" + padding).getBytes();

byte[] value = new String("!value" + padding).getBytes(); // 修改

db.put(key, value);

}

// 再扫描

scan(db, ss);

ss.close();

} finally {

db.close();

}

}

private static void scan(DB db, Snapshot ss) throws IOException{

ReadOptions ro = new ReadOptions();

ro.snapshot(ss);

DBIterator it = db.iterator(ro);

int k = 0;

// it.seek(someKey); // 从指定位置开始遍历

it.seekToFirst(); // 从头开始遍历

while (it.hasNext()) {

Entry entry = it.next();

String key = new String(entry.getKey());

String value = new String(entry.getValue());

String padding = String.format("%04d", k);

String targetKey = new String("key" + padding);

String targetVal = new String("value" + padding);

if (!targetKey.equals(key) || !targetVal.equals(value)) {

System.out.printf("something wrong");

}

k++;

}

System.out.printf("total %d\n", k);

it.close();

}

--------------------

total 10000

total 10000

前后两次遍历从快照中获取到的数据还是一致的,也就是说中间的写操作根本没有影响到快照的状态,这就是我们想要的结果。那快照的原理是什么呢?

快照的原理其实非常简单,简单到让人怀疑人生。对于库中的每一个键值对,它会因为修改操作而存在多个值的版本。在数据库文件内容合并之前,同一个 Key 可能会存在于多个文件中,每个文件中的值版本不一样。这个版本号是由数据库唯一的全局自增计数值标记的。快照会记录当前的计数值,在当前快照里读取的数据都需要和快照的计数值比对,只有小于这个计数值才是有效的数据版本。

既然同一个 Key 存在多个版本的数据,对于同一个 Key,遍历操作是如何避免重复的呢?关于这个问题我们后续再深入探讨。

布隆过滤器

leveldbjni 没有封装 LevelDB 提供的布隆过滤器功能。所以为了尝试布隆过滤器的效果,我们需要试试其它语言,这里我使用 Go 语言的 levigo 库。// 安装 leveldb和snappy库

$ brew install leveldb

// 再安装 levigo

$ go get github.com/jmhodges/levigo

这个例子中我们将写入更多的数据 —— 1000w 条,当数据量增多时,LevelDB 将形成更深的层级。同时为了构造出读 miss 的效果,我们写入偶数的键值对,然后再随机读取奇数的键值对。再对比增加布隆过滤器前后的读性能差异。package main

import (

"fmt"

"math/rand"

"time"

"github.com/jmhodges/levigo"

)

func main() {

options := levigo.NewOptions()

options.SetCreateIfMissing(true)

// 每个 key 占用 10个bit

// options.SetFilterPolicy(levigo.NewBloomFilter(10))

db, _ := levigo.Open("/tmp/lvltest", options)

start := time.Now().UnixNano()

for i := 0; i

key := []byte(fmt.Sprintf("key%d", i*2))

value := []byte(fmt.Sprintf("value%d", i*2))

wo := levigo.NewWriteOptions()

db.Put(wo, key, value)

}

duration := time.Now().UnixNano() - start

fmt.Println("put:", duration/1e6, "ms")

start = time.Now().UnixNano()

for i := 0; i

index := rand.Intn(10000000)

key := []byte(fmt.Sprintf("key%d", index*2+1))

ro := levigo.NewReadOptions()

db.Get(ro, key)

}

duration = time.Now().UnixNano() - start

fmt.Println("get:", duration/1e6, "ms")

start = time.Now().UnixNano()

for i := 0; i

key := []byte(fmt.Sprintf("key%d", i*2))

wo := levigo.NewWriteOptions()

db.Delete(wo, key)

}

duration = time.Now().UnixNano() - start

fmt.Println("get:", duration/1e6, "ms")

}

-----------

put: 61054ms

get: 104942ms

get: 47269ms

再去掉注释,打开布隆过滤器,观察结果put: 57653ms

get: 36895ms

get: 57554ms

可以明显看出,读性能提升了 3 倍,这是一个非常了不起的性能提升。在读 miss 开启了布隆过滤器的情况下,我们再试试打开块缓存,看看是否还能再继续提升读性能put: 57022ms

get: 37475ms

get: 58999ms

结论是在读 miss 开启了布隆过滤器场景下块缓存几乎不起作用。但是这并不是说块缓存没有用,在读命中的情况下,块缓存的作用还是很大的。

布隆过滤器在显著提升性能的同时,也是需要浪费一定的磁盘空间。LevelDB 需要将布隆过滤器的二进制数据存储到数据块中,不过布隆过滤器的空间占比相对而言不是很高,完全在可接受范围之内。

压缩

LevelDB 的压缩算法采用 Snappy,这个算法解压缩效率很高,在压缩比相差不大的情况下 CPU 消耗很低。官方不建议关闭压缩算法,不过经过我的测试发现,关闭压缩确实可以显著提升读性能。不过关闭了压缩,这也意味着你的磁盘空间要浪费好几倍,这代价也不低。public static void main(String[] args) throws IOException{

Options options = new Options();

options.createIfMissing(true);

options.compressionType(CompressionType.None);

DB db = factory.open(new File("/tmp/lvltest"), options);

try {

long start = System.currentTimeMillis();

for (int i = 0; i

byte[] key = new String("key" + 2 * i).getBytes();

byte[] value = new String("value" + 2 * i).getBytes();

db.put(key, value);

}

long duration = System.currentTimeMillis() - start;

System.out.printf("put:%dms\n", duration);

start = System.currentTimeMillis();

for (int i = 0; i

int index = ThreadLocalRandom.current().nextInt(1000000);

byte[] key = new String("key" + (2 * index + 1)).getBytes();

db.get(key);

}

duration = System.currentTimeMillis() - start;

System.out.printf("get:%dms\n", duration);

start = System.currentTimeMillis();

for (int i = 0; i

byte[] key = new String("key" + 2 * i).getBytes();

db.delete(key);

}

duration = System.currentTimeMillis() - start;

System.out.printf("delete:%dms\n", duration);

} finally {

db.close();

}

}

----------------

put:3785ms

get:6475ms

delete:1935ms

下面我们再打开压缩,对比一下结果,读性能差距接近 1 倍options.compressionType(CompressionType.SNAPPY);

---------------

put:3804ms

get:11644ms

delete:2750m

下一节将开始深入 LevelDB 实现原理,先从 LevelDB 的宏观结构开

leveldb java_LevelDB 代码撸起来!相关推荐

  1. Android:代码撸彩妆 2(大眼,瘦脸,大长腿)

    序言 本篇文章是代码撸彩妆的第二篇, 主要介绍在Android上怎么进行图片的局部变形,并实现抖音上比较火的大眼,瘦脸,大长腿特效. 在开始之前我们先来回顾上一篇的主要内容. 使用代码画一半的效果如下 ...

  2. 70行代码撸一个桌面自动翻译神器(采用Markdown格式编写)

    70行代码撸一个桌面自动翻译神器 前言 工作上经常需要与外国友人邮件沟通,奈何工作电脑没有安装有道词典一类的翻译软件,结合自己的需要,自己撸一个桌面翻译神器. 基本思路:基于PySimpleGUI开发 ...

  3. Android:让你的“女神”逆袭,代码撸彩妆(画妆)

    导读: 本文使用代码撸一个你心目中的"女神",代码上彩妆. 技术主要内容是Canvas的应用. 背景 最近刷抖音,看到一些大汉变"女神",这化妆可以称之为逆袭啊 ...

  4. 100行代码撸一个语音对话助手

    前言 之前在CSDN上看到有人用python调用语音api接口实现一个语音对话机器人的功能,于是依葫芦画瓢,按照方法用python撸了一个语音对话助手,并成功在一个linux 智能音箱上应用并实现播报 ...

  5. 70行代码撸一个桌面自动翻译神器

    工作上经常需要与外国友人邮件沟通,奈何工作电脑没有安装有道词典一类的翻译软件,结合自己的需要,自己撸一个桌面翻译神器. 基本思路:基于PySimpleGUI开发桌面GUI→获取键盘输入→接入谷歌翻译A ...

  6. 70行代码撸一个桌面自动翻译神器!

    文 | 咕隆先森 来源:Python 技术「ID: pythonall」 工作上经常需要与外国友人邮件沟通,奈何工作电脑没有安装有道词典一类的翻译软件,结合自己的需要,自己撸一个桌面翻译神器. 基本思 ...

  7. leveldb java_LevelDB:使用介绍

    LevelDB 提供的接口其实很简单,下面举例进行简单说明. 安装 cd leveldb mkdir -p build && cd build cmake -DCMAKE_BUILD_ ...

  8. 100行代码撸完SpringIOC容器

    用过Spring框架的人一定都知道Spring的依赖注入控制反转;通俗的讲就是负责实例化对象 和 管理对象间的依赖 实现解耦. 我们来对比两段代码: UserController{UserServic ...

  9. 【Qt串口调试助手】1.0 - 400行代码撸一个Qt5串口调试助手框架

    1. 设计目的 使用Qt设计一款串口调试助手,具有自动扫描串口端口.列表端口硬件信息.16进制转换.收发数目统计.定时发送等功能.代码注释清晰,应用无内建缓存区,运行效率高,适合拿来学习和作为二次开发 ...

最新文章

  1. 计算两个时间的间隔时间是多少
  2. 时间日期格式转换_JAVA
  3. CV之IG:基于CNN网络架构+ResNet网络进行DIY图像生成网络
  4. 嵌入式烤箱能不能放台面上_2021年开放式厨房怎么设计?先来做做嵌入式家电的功课吧!...
  5. php判断是否是关联数组,php 关联数组判断是否为空
  6. java的web项目资源访问规则
  7. linux 日志切割 自带,[日志分割回滚] 使用linux自带的logrotate对nginx日志进行分割...
  8. java实现——客户端登录
  9. 【Python数据分析】二手车价格预测
  10. 老司机通过后视镜辨别车距 完爆倒车影像功能
  11. 1分钟学会给你的网站添加上https!
  12. uni-app做app自定义弹窗实现
  13. BeatMark X for mac(fcpx音乐卡点神器)
  14. 【C++】上下取整取整函数
  15. mysql重迭算法_一句话实现MySQL库中的重叠分组
  16. Linux --OSI TCP/IP协议族
  17. C语言经典代码(考试自用)
  18. ps 2018 安装包以及pojie
  19. 无线网性能该如何测试
  20. webview 个人小程序_微信小程序webview中,拉起小程序的微信支付 | 剑花烟雨江南...

热门文章

  1. 一个类的实例是另一个类的属性python_Python中的类属性和实例属性引发的一个坑...
  2. oracle表空间dbf文件,Oracle 11g表空间dbf文件迁移
  3. python制作一个教学网站_小白如何入门Python? 制作一个网站为例
  4. cdi name 日志_CDI 2.0更新
  5. matlab 2009a使用教程,实验一 安装MATLAB R2009a软件及其简单操作
  6. fr4速度 微带线_【射频笔记5】传输线理论基础
  7. java css隔行变色_JS+CSS实现Li列表隔行换色效果的方法
  8. mysql 5.6 gtid mha_MySQL MHA--故障切换模式(GTID模式和非GTID模式)
  9. 尽快卸载这两款恶意浏览器插件!已有近50万用户安装
  10. 单靠MySQL进了字节,高端玩法才是王道!