浅析Linux Native AIO的实现
前段时间在自研的基于iSCSI的SAN 上跑mysql,CPU的iowait很大,后面改用Native AIO,有了非常大的改观。这里简单总结一下Native AIO的实现。对于以IO为最大瓶颈的数据库,native AIO几乎不二的选择,仅仅依靠多线程,显然无法解决磁盘和网络的问题。
1 API 与data struct
AIO的主要接口:
System call |
Description |
io_setup( ) |
Initializes an asynchronous context for the current process |
io_submit( ) |
Submits one or more asynchronous I/O operations |
io_getevents( ) |
Gets the completion status of some outstanding asynchronous I/O operations |
io_cancel( ) |
Cancels an outstanding I/O operation |
io_destroy( ) |
Removes an asynchronous context for the current process |
1.1 AIO上下文
使用AIO的第一步就是创建AIO上下文,AIO上下文用于跟踪进程请求的异步IO的运行情况。AIO上下文在用户空间对应数据结果aio_context_t:
//linux/aio_abi.h typedef unsigned long aio_context_t; //创建AIO上下文 int io_setup(unsigned nr_events, aio_context_t *ctxp); |
Io_setup创建接收nr_events事件的AIO上下文。
kioctx:
AIO上下文在内核空间对应数据结构kioctx,它保存异步IO的所有信息:
//AIO环境 struct kioctx { atomic_t users; int dead; struct mm_struct *mm; /* This needs improving */ unsigned long user_id; //ring_info.mmap_base,AIO环的起始地址 struct kioctx *next; //下一个aio环境 wait_queue_head_t wait; //等待进程队列 spinlock_t ctx_lock; int reqs_active; struct list_head active_reqs; /* used for cancellation */ struct list_head run_list; /* used for kicked reqs,正在运行的IO请求链表 */ unsigned max_reqs;//异步IO操作的最大数量 struct aio_ring_info ring_info; //AIO Ring struct work_struct wq; }; |
一个进程可以创建多个AIO上下文,这些AIO上下文构成一个单向链表。
struct mm_struct { ... /* aio bits */ rwlock_t ioctx_list_lock; struct kioctx *ioctx_list; //进程的AIO上下文链表 struct kioctx default_kioctx; } |
AIO Ring
AIO上下文kioctx对象包含一个重要的数据结构AIO Ring:
//aio.h //AIO环 #define AIO_RING_PAGES 8 struct aio_ring_info { unsigned long mmap_base; //AIO ring用户态起始地址 unsigned long mmap_size; //缓冲区长度 struct page **ring_pages;//AIO环页框指针数组 spinlock_t ring_lock; long nr_pages; unsigned nr, tail; struct page *internal_pages[AIO_RING_PAGES]; }; |
AIO Ring对应用户态进程地址空间的一段内存缓存区,用户态进程可以访问,内核也可访问。实际上,内核先调用kmalloc函数分配一些页框,然后通过do_mmap映射到用户态地址空间,详细请参考aio_setup_ring函数。
AIO Ring是一个环形缓冲区,内核用它来报告异步IO的完成情况,用户态进程也可以直接检查异步IO完成情况,从而避免系统调用的开销。
AIO结构很简单:aio_ring + io_event数组:
struct aio_ring { unsigned id; /* kernel internal index number */ unsigned nr; /* number of io_events */ unsigned head; unsigned tail; unsigned magic; unsigned compat_features; unsigned incompat_features; unsigned header_length; /* size of aio_ring */ struct io_event io_events[0]; }; /* 128 bytes + ring size */ |
系统调用io_setup有2个参数:(1) nr_events确认最大的异步IO请求数,这将确定AIO Ring大小,即io_event数量;(2) ctxp:AIO上下文句柄的指针,实际上也是AIO Ring的起始地址aio_ring_info.mmap_base,参见函数aio_setup_ring。
1.2 提交IO请求
想要进行异步IO,需要通过系统调用io_submit提交异步IO请求。
//提交异步IO请求/aio.c asmlinkage long sys_io_submit(aio_context_t ctx_id, long nr, struct iocb __user * __user *iocbpp) |
参数:
(1)ctx_id:AIO上下文句柄,内核通过它查找对应的kioctx对象;
(2)iocb数组,每个iocb描述一个异步IO请求;
(3)nr:iocb数组的大小。
iocb
//用户态异步IO请求描述符/aio_abi.h struct iocb { /* these are internal to the kernel/libc. */ __u64 aio_data; /* data是留给用来自定义的指针:可以设置为IO完成后的callback函数 */ __u32 PADDED(aio_key, aio_reserved1); /* the kernel sets aio_key to the req # */ /* common fields */ __u16 aio_lio_opcode; /* see IOCB_CMD_ above,操作的类型:IO_CMD_PWRITE | IO_CMD_PREAD */ __s16 aio_reqprio; __u32 aio_fildes; //IO操作的文件描述符 __u64 aio_buf; //IO的buffer __u64 aio_nbytes; //IO请求字节数 __s64 aio_offset;//偏移 /* extra parameters */ __u64 aio_reserved2; /* TODO: use this for a (struct sigevent *) */ __u64 aio_reserved3; }; /* 64 bytes */ |
数据结构iocb用来描述用户空间的异步IO请求,对应的内核数据结构为kiocb。
io_submit的流程:
函数io_submit_one对每个iocb分配一个kiocb对象,加入到AIO上下文kioctx的IO请求队列run_list;然后调用aio_run_iocb发起IO操作,它实际上调用kiocb的ki_retry方法(aio_pread/aio_pwrite)。
如果ki_retry方法返回-EIOCBRETRY,表明异步IO请求已经提交,但是还没全部完成,稍后kiocb的ki_retry方法还会被继续调用,来继续完成IO请求;否则,调用aio_complete,在AIO Ring加入一个表示一个IO完成的io_event。
1.3 收集完成的IO请求
asmlinkage long sys_io_getevents(aio_context_t ctx_id, long min_nr, long nr, struct io_event __user *events, struct timespec __user *timeout) |
参数:
(1)ctx_id:AIO上下文句柄;
(2)min_nr:至少收集min_nr个已经完成的IO请求才返回;
(3)nr:最多收集nr个已经完成的IO请求;
(4)timeout:等待的时间
(5)events:由应用层分配,内核将完成的io_event拷贝到该缓冲区,所以,events数组要保证至少有nr个io_event。
io_event:
//aio_abi.h struct io_event { __u64 data; /* the data field from the iocb */ __u64 obj; /* what iocb this event came from */ __s64 res; /* result code for this event */ __s64 res2; /* secondary result */ }; |
io_event是用来描述返回结果的:
(1)data对应iocb的aio_data,返回用户定义的指针;
(2)obj就是之前提交IO任务时的iocb;
(3)res和res2来表示IO任务完成的状态。
io_getevents的流程:
比较简单,扫描AIO上下文kiocxt的AIO Ring,检查是否有完成的io_event。如果至少有min_nr个完成IO事件(或者超时),则将完成的io_event拷贝到events,并返回io_event的个数或者错误;否则,将进程本身加入到kiocxt的等待队列,挂起进程。
2 AIO工作队列
2.1 创建AIO工作队列
//aio.c static struct workqueue_struct *aio_wq;//AIO工作队列 static int __init aio_setup(void) { ... aio_wq = create_workqueue("aio"); ... |
2.2 创建work_struct
static struct kioctx *ioctx_alloc(unsigned nr_events) { ... INIT_WORK(&ctx->wq, aio_kick_handler, ctx); |
函数aio_kick_hanlder由aio内核线程处理aio work时调用:
static void aio_kick_handler(void *data) { requeue =__aio_run_iocbs(ctx); ... /* * we're in a worker thread already, don't use queue_delayed_work, */ if (requeue) queue_work(aio_wq, &ctx->wq); } |
逻辑很简单,调用__aio_run_iocbs继续处理kioctx中的待完成异步IO,如果需要,则将aio work继续加入aio工作队列,下一次再处理。
2.3 调度工作
函数aio_run_iocbs发起异步IO请求后,如果kioctx的run_list还有未完成的IO,则调用queue_delayed_work将work_struct(kioctx->wq)加入到AIO工作队列aio_wq,由aio内核线程继续发起异步IO。
3 AIO与epoll
在使用AIO时,需要通过系统调用io_getevents获取已经完成的IO事件,而系统调用io_getevents是阻塞的,所以有2种方式:(1)使用多线程,用专门的线程调用io_getevents,参考MySQL5.5及以上版本;(2)对于单线程程序,可以通过epoll来使用AIO;不过,这需要系统调用eventfd的支持,而该系统调用只在2.6.22之后的内核才支持。
eventfd 是 Linux-native aio 其中的一个 API,用来生成 file descriptors,这些 file descriptors 可为应用程序提供更高效 “等待/通知” 的事件机制。和 pipe 作用相似,但比 pipe 更好,一方面它只用到一个 file descriptor(pipe 要用两个),节省了内核资源;另一方面,eventfd 的缓冲区管理要简单得多,pipe 需要不定长的缓冲区,而 eventfd 全部缓冲只有定长 8 bytes。
关于AIO与epoll的结合,请参考:
nginx 0.8.x稳定版对linux aio的支持(http://www.pagefault.info/?p=76)
4 AIO与direct IO
AIO需要与direct IO结合。
关于direct IO的简单实现,可以参考:
Linux 中直接 I/O 机制的介绍
http://www.ibm.com/developerworks/cn/linux/l-cn-directio/index.html
5 案例
(1)同步IO
(2)Native AIO
浅析Linux Native AIO的实现相关推荐
- 内核aio_浅析Linux Native AIO的实现
前段时间在自研的基于iSCSI的SAN 上跑mysql,CPU的iowait很大,后面改用Native AIO,有了非常大的改观.这里简单总结一下Native AIO的实现.对于以IO为最大瓶颈的数据 ...
- linux aio参数,Linux 异步 IO 之 Native AIO
Linux Native AIO 来看看 Linux 提供的 AIO 系统调用(自行封装的头文件 native_aio.h): #ifndef __NATIVE_AIO_H__ #define __N ...
- linux aio拷贝文件,Linux通过AIO进行异步读文件
下面列出源代码: #include #include #include #include #include #include #include #include static char *memBuf ...
- 浅析 Linux 初始化 init 系统: UpStart
浅析 Linux 初始化 init 系统: UpStart Upstart 简介 假如您使用的 Linux 发行版是 Ubuntu,很可能会发现在您的计算机上找不到/etc/inittab 文件了,这 ...
- pae扩展内存 linux,浅析linux内核内存管理之PAE
浅析linux内核内存管理之PAE 早期Intel处理器从80386到Pentium使用32位物理地址,理论上,这样可以访问4GB的RAM.然而,大型服务器需要大于4GB的RAM来同时运行数以千计的进 ...
- Linux文件系统为,浅析Linux文件系统
原标题:浅析Linux文件系统 一.文件系统层次分析 由上而下主要分为用户层.VFS层.文件系统层.缓存层.块设备层.磁盘驱动层.磁盘物理层 用户层 最上面用户层就是我们日常使用的各种程序,需要的接口 ...
- linux native分区,怎么将硬盘格式分区为Linux Native格式的
根据目前流行的操作系统来看,常用的分区格式有四种,分别是FAT16.FAT32.NTFS和Linux.资格最老的当然就是FAT16啦,这是MS-DOS和最早期的Windows 95操作系统中最常见的磁 ...
- linux内核定时器死机,浅析linux内核中timer定时器的生成和sofirq软中断调用流程
浅析linux内核中timer定时器的生成和sofirq软中断调用流程 mod_timer添加的定时器timer在内核的软中断中发生调用,__run_timers会spin_lock_irq(& ...
- linux查看共享内存max,浅析Linux的共享内存与tmpfs文件系统
浅析Linux的共享内存与tmpfs文件系统 前言 共享内存主要用于进程间通信,Linux有两种共享内存(Shared Memory)机制: (1)** System V shared memory( ...
最新文章
- swift4.0 try 的强大
- 解决方案需求提升 安防工程细节化事项要了解
- 2021云上架构与运维峰会将于12月4日在上海举办,五大精彩看点不容错过
- 9008刷机模式写入超时刷机帮_刷机时没有成功,然后变成黑砖,usb接口直接变成未知设备~希望大神救助!...
- 软件测试岗位,BAT大厂面试题集锦
- python使用相对路径创建文件夹
- 判断 localStorage 在不同浏览器的最大支持内存
- sublime python快捷键
- (更新至v0.108)termux下载、安装教程 版本v0.88
- 【易我分区大师】磁盘分区助手无损c盘扩容方法
- Redmine使用介绍
- C语言学习教程免费分享
- txt改html 打开不显示不全,哪位大佬帮我改一下JS谢谢,txt改html网页直接显示的,感激不尽,现在的源码只能看......
- [精选转载]15天!我申论从60分到81.5分的复习经验
- java实现日期转中文大写形式
- AWS【亚马逊云】的EC2以及VPC网络框架介绍
- 从互动直播到在线抓娃娃,实时视频超低延迟架构的思考与实践
- 视频深度学习:行为识别指南
- LC99 Recover Binary Search Tree
- 西天取经采访(时寒冰先生大作)
热门文章
- angular生命周期钩子ngOnChanges-父组件使子组件输入属性值变化时触发
- 为什么手机上传图片这么慢 前端_怎样在手机上就能把图片压缩到100K以下?
- mysql 事物gljbie_图片转成base64格式上传至数据库
- 16.异常处理机制:exception
- Coursera课程Python for everyone:Quiz: REST, JSON, and APIs
- Python爬虫实战六之抓取爱问知识人问题并保存至数据库
- boost源码剖析之:多重回调机制signal(上)
- 数字图像处理:第一章 概述
- Emacs常用快捷键
- 【算法+图像处理】2D卷积与快速卷积算法C语言实现