Rocksdb 利用recycle_log_file_num 重用wal-log文件
recycle_log_file_num
复用wal文件信息, 优化wal文件的空间分配,减少pagecache中文件元信息的更新开销。
为同事提供了一组rocksdb写优化参数之后有一个疑惑的现象被问到,发现之前的一些代码细节有遗忘情况,同时也发现了这个参数的一些小优化,这里做个总结。
在参数:
opts.recycle_log_file_num = 10;
opts.max_write_buffer_number = 16;
opts.write_buffer_size = 128 << 20;
大压力写下 出现了多个.log文件同时存在的现象,想要看看为什么会有这个现象。
在描述这个现象产生的原因之前我们先看看Rocksdb的wal创建以及清理过程,其中recycle_log_file_num
是如何reuse log的
Rocksdb的WAL创建
如果不设置disable_memtable=true
,不设置enable_pipelined_write=1
,不disableWAL=1
的话,基本的写入调用栈如下:
JoinBatchGroup的逻辑这里暂不提及,从大体的写入过程中各个文件的创建过程如下:
DBImpl::PreprocessWriteDBImpl::SwitchWALDBImpl::SwitchMemtableDBImpl::CreateWAL // 创建wal文件
在CreateWal文件的时候,Rocksdb会为这个wal创建一个PosixEnv
下的文件句柄,以及文件名,并创建一个文件writer,用来后续的数据写入。
如下代码:
// 其中recycle_log_number 为当前想要复用的wal log文件名
// new_log 为需要在该函数中创建的writer,最后传出来
// log_file_num 是创建的新的文件名,如果可回收的文件为0,则直接用新的就可以了。
IOStatus DBImpl::CreateWAL(uint64_t log_file_num, uint64_t recycle_log_number,size_t preallocate_block_size,log::Writer** new_log) {......// 根据文件num,创建新的文件名std::string log_fname =LogFileName(immutable_db_options_.wal_dir, log_file_num);// 如果有可回收的numer,则reuseif (recycle_log_number) {ROCKS_LOG_INFO(immutable_db_options_.info_log,"reusing log %" PRIu64 " from recycle list\n",recycle_log_number);std::string old_log_fname =LogFileName(immutable_db_options_.wal_dir, recycle_log_number);TEST_SYNC_POINT("DBImpl::CreateWAL:BeforeReuseWritableFile1");TEST_SYNC_POINT("DBImpl::CreateWAL:BeforeReuseWritableFile2");io_s = fs_->ReuseWritableFile(log_fname, old_log_fname, opt_file_options,&lfile, /*dbg=*/nullptr);} else {io_s = NewWritableFile(fs_.get(), log_fname, &lfile, opt_file_options);}if (io_s.ok()) {......// 创建一个file writerstd::unique_ptr<WritableFileWriter> file_writer(new WritableFileWriter(std::move(lfile), log_fname, opt_file_options,immutable_db_options_.clock, io_tracer_, nullptr /* stats */, listeners,nullptr, tmp_set.Contains(FileType::kWalFile)));*new_log = new log::Writer(std::move(file_writer), log_file_num,immutable_db_options_.recycle_log_file_num > 0,immutable_db_options_.manual_wal_flush);}return io_s;
}
其中ReuseWritableFile
函数和NewWritableFile
函数内部分别打开的是一个存在和不存在的文件,如果我们能够reuse log文件名,则在ReuseWritableFile
函数中通过open系统调用打开已存在文件的时候不需要创建新的dentry和inode,且不需要将这一些元数据更新到各自dcache/inode-cache中的相应hash表中,所以重用文件名这里的优化就体现在内核对文件的一些操作逻辑上。
关于open系统调用的内核逻辑,可以参考从unlink系统调用来看操作系统文件系统原理。
CreateWAL
这个函数仅仅是用到了recycle_log_number,什么时候给recycle_log_number 赋值呢,可以由下向上递推。
recycle_log_number 如何复用log
向上递推 ,可以看到CreateWAL
函数是在SwitchMemtable
中被调用,recycle_log_number
数值是从一个log_recycle_files_
的deque中取出来的。
Status DBImpl::SwitchMemtable(ColumnFamilyData* cfd, WriteContext* context) {......// 从log_recycle_files_ 的头端取出一个元素作为当前可回收的log numberuint64_t recycle_log_number = 0;if (creating_new_log && immutable_db_options_.recycle_log_file_num &&!log_recycle_files_.empty()) {recycle_log_number = log_recycle_files_.front();}......if (creating_new_log) {// TODO: Write buffer size passed in should be max of all CF's instead// of mutable_cf_options.write_buffer_size.io_s = CreateWAL(new_log_number, recycle_log_number, preallocate_block_size,&new_log);if (s.ok()) {s = io_s;}}
而log_recycle_files_
这个deque则是在从活跃log deque alive_log_files_
中取的。
在FindOnsoleteFiles
函数中需要清理一些过期文件(log, sst, blob等),针对一些过期的log进行回收,并添加到log_recycle_files_ 双端队列中。
其中recycle_log_file_num 表示能够回收的log个数
if (!alive_log_files_.empty() && !logs_.empty()) {uint64_t min_log_number = job_context->log_number;size_t num_alive_log_files = alive_log_files_.size();// find newly obsoleted log files// 从活跃log中取出没有接受写入数据的log,将这一部分log进行重用// min_log_number表示当前这个log 还在被持续更新。while (alive_log_files_.begin()->number < min_log_number) {auto& earliest = *alive_log_files_.begin();if (immutable_db_options_.recycle_log_file_num >log_recycle_files_.size()) {ROCKS_LOG_INFO(immutable_db_options_.info_log,"adding log %" PRIu64 " to recycle list\n",earliest.number);log_recycle_files_.push_back(earliest.number);} else {job_context->log_delete_files.push_back(earliest.number);
关于alive_log_files_
这个变量的元素更新是在 打开db 和 SwitchMemtable 过程中进行更新的,这两个部分会创建wal
在FindOnsoleteFiles函数中,构造好的job_context
传出即可。
清理WAL的调用栈如下(如果当前log被reuse,那就不会被清理了)
DBImpl::MaybeScheduleFlushOrCompaction // 调度compaction/flushDBImpl::BGWorkFlush // 从线程池调度flushDBImpl::BackgroundCallFlush DBImpl::FindObsoleteFiles // 构造好我们的job_context,其中包括需要清理的sst/blob/logDBImpl::PurgeObsoleteFiles // 执行清理
在清理函数中PurgeObsoleteFiles
会决定是否需要keep log
bool keep = true;switch (type) {case kWalFile:keep = ((number >= state.log_number) ||(number == state.prev_log_number) ||(log_recycle_files_set.find(number) !=log_recycle_files_set.end()));break;
如果发现log在log_recycle_files_set 我们之前回收的log列表中,则需要keep,也就不会执行后续的log文件删除了。
总结
到此,我们就知道参数opts.recycle_log_file_num
的完整作用了,回到开头提到的现象,在开头的配置下大并发写rocksdb 会发现部分log文件可能存在的时间较长,且同时存在多个log 数目。
对于第一个问题 log存在的时间较长,即是由recycle_log_file_num
参数控制,它会不断得复用一些过期(不接受写入)的log,并且这一些log不会被回收。这个参数能够提升log文件的复用,减少对文件元数据的操作,加速SwitchMemtable
的过程。
对于第二个问题 log存在多个,则是由于max_write_buffer_number
参数的问题,它允许同时存在多个memtable,如果写入量较大,则imm 排队flush,则这个过程中的imm 对应的log文件是不会清理的,而recycle_log_file_num
则会回收一些log_num,且让这一些log不会被清理,所以会同时出先多个log_num。
需要注意的是recycle_log_file_num
这个参数回收的log不会被清理。
Rocksdb 利用recycle_log_file_num 重用wal-log文件相关推荐
- 【Caffe】利用log文件绘制loss和accuracy(转载)
(原文地址:http://blog.csdn.net/liuweizj12/article/details/64920428) 在训练过程中画出accuracy 和loss曲线能够更直观的观察网络训练 ...
- 利用python读取tomcat中log文件提取出错误日志生成新的文件
人生苦短,我用python 废话不多说,直接上代码! #!/usr/bin/env python # coding=utf-8 import redef find_error_log(log_name ...
- 利用scribe管理log文件
Scribe是Facebook开源的日志收集系统,在Facebook内部已经得到大量的应用.它能够从各种日志源上收集日志,存储到一个中央存储系统(可以是NFS,分布式文件系统等)上,以便于进行集中统计 ...
- Linux下利用rsync实现多服务器文件同步
Linux下利用rsync实现多服务器文件同步 目标:多服务器文件同步 环境:2台centos5.6 Web端:192.168.20.20 Backup端:192.168.20.21 需要备份目录为: ...
- 利用Socketserver实现简单的文件上传
利用Socketserver实现简单的文件上传 server.py #!/usr/bin/env python #coding:utf-8 import SocketServer import os ...
- html与css入门经典doc,HTML+CSS入门 flying-saucer如何利用HTML来生成PDF文件
本篇教程介绍了HTML+CSS入门 flying-saucer如何利用HTML来生成PDF文件,希望阅读本篇文章以后大家有所收获,帮助大家HTML+CSS入门. < 1.导入maven依赖 9. ...
- 获取log文件信息,并保存至Excel文件
获取log文件信息,并保存至Excel文件 日常工作中,可能需要我们从txt文件中截取海量的信息,只要寻找到这种信息的规律或者定位好信息情况,在我的txt文件中有海量的信息,而我只需要截取09/11/ ...
- 利用shell监控云服务器文件夹变化
利用shell监控云服务器文件夹变化 简介 这个代码的主要功能是对一台linux服务器(我使用的为centos7版本)的某个文件夹进行监控,当这个文件夹发生变化时(比如有对文件的增,删,改操作),那么 ...
- putty怎么进入文件夹_如何利用putty工具上传文件 - 卡饭网
图解使用FTP工具上传文件以FlashFXP为例 图解使用FTP工具上传文件以FlashFXP为例 现以FlashFXP为例,图解使用FTP工具上传文件. 1: 运行 LeapFTP,点击1处(站点- ...
最新文章
- 接口冲突的一种解决方法
- Java基础篇:网络编程
- file.seek()/tell()-笔记
- LNMP Keepalived Haproxy 笔记
- 自动化审批决策树助你面试更上一层楼
- 区块链“国家队”上新,天津重磅发布自主可控区块链系统“海河智链”
- arcgis开发 多版本之间如何兼容_arcgis api 4.x for js 结合 react 入门开发系列初探篇(附源码下载)...
- 如何恢复丢失的分区及文件
- Android新手爬坑之路——Failed to find provider info for com.example.databasetest.provider
- 标准化(standardization,z-score)与归一化(Normalizer)分别是什么?有什么区别?
- 使用 Gitee 进行代码管理
- 数据可视化:科研论文配色
- 负载均衡进阶:SLB常见问题解决方法
- 删除 python print()输出的字符里的空格
- 面试季,各大厂真实面试题拿走不谢
- c语言中int类型与char类型数据转换
- 域名抢注自动提交程序详解
- 海天蚝油《挑战不可能》听算神童挑战极限20笔9位数闪电心算
- Excel中的VBA学习--简易上手VB的程序
- SkeyeVSS综合安防Onvif、RTSP、GB/T28181无插件直播点播解决方案之报警中心管理
热门文章
- 设计模式之简单工厂模式
- JavaScript(转载)
- np.dot()运算准则
- 仙居机器人_【101巨喜讯】又一个全国冠军!仙居学子机器人全国赛获奖啦!
- ip设置 kali 重置_在 Windows 系统中如何重置 TCP/IP 协议堆栈修复网络连接问题
- 13. 微型计算机中,传送cpu发出的读/写指令的总线是,我的微机原理题库
- linux蓝牙设备无法打开,linux 下 无线 wifi 蓝牙 无法启用
- 福师2021计算机应用基础,2021福师《计算机应用基础》在线作业二【满分答案】...
- ggplot2中显示坐标轴_R可视化11|ggplot2-图层图形语法 (3)
- Python,OpenCV轮廓属性、轮廓检测及绘制