TCMalloc(Thread-Caching malloc) 基本设计原理
文章目录
- 背景
- 如何使用
- 架构概览
- 1. TCMalloc Front-end
- 1.1 小对象和大对象的内存分配过程
- 1.2 内存释放过程
- 1.3 Per-CPU mode
- 1.4 Per-thread mode
- 1.5 per-cpu 和 per-thread 运行时内存管理算法对比
- 2. TCMalloc Middle-end
- 2.1 Transfer Cache
- 2.2 Central Free List
- 2.3 Pagemap 和 Spans
- 3. TCMalloc Backend
- 3.1 Legacy Pageheap
- 3.2 大页场景分配器设计
- 4. 参考
背景
之前介绍了TCMalloc, Jemalloc, Glibc-malloc 的性能 以及 TCMalloc和Glibc Malloc 的大体架构和主要优势:三种 Allocator 性能 以及 glibc/tcmalloc 设计差异。
本节将专注于TCMalloc 的架构设计细节,来整体看一下TCMalloc 的设计特性。
主要的几个特性如下:
- 高性能。大多数对象的分配和释放都不需要产生太多的竞争,因为tcmalloc 维护了thread-cache 来提供当前线程的内存分配需求。所以,应用大多数的内存申请需求不会有锁的竞争,而且在多核场景有较好的扩展性。
- 灵活的使用内存资源。用户不使用的内存,tcmalloc会选择服复用或者归还操作系统。
- 降低了每个请求的内存开销。通过分配相同大小的page 降低内存使用的开销,这在小对象场景较为有效。
- 内部信息统计开销较低。能够开启细粒度的应用内存占用信息,来帮助用户展示tcmalloc内部内存使用的细节。
如何使用
安装tcmalloc,应用编译加入 -ltcmalloc
即可默认将glibc的malloc 替换为tcmalloc的malloc ,之前的文章中关于性能的对比测试中能够直接看到。
架构概览
前面的文章中在介绍整体的tcmalloc的时候已经介绍过了,大体分为三个部分:
Front-end
,主要维护线程cache,用来为应用提供 快速分配以及释放内存的需求。Middle-end
,主要负责为font-end 中的thread-cache 填充内存。back-end
,负责从os直接获取内存。
需要注意的是front-end 的 thread-cache 可以在每一个cpu下维护 或者 每一个线程下维护,
back-end` 则能够支持大内存的pageheap管理,也能支持小内存的pageheap 管理。
接下来,我们进入每一个组件详细看一下其设计细节。
1. TCMalloc Front-end
Front-end 提供了Cache ,能够缓存一部分内存 用来分配给应用 ,也能够持有应用释放的内存。这个Cache 作为per-cpu/per-thread 存在,其同一时刻只能由一个线程访问,所以本身不需要任何的锁,这也是多线程下内存分配释放高效的原因。
如果Front-end 持有的内存大小足够,其能够满足应用线程任何内存需求。如果持有的内存为空了,那它会从 middle-end
组件请求一批内存页进行填充。
Middle-end 是由 CentralFreeList 和 TransferCache 两部分组成,后续会详细介绍这两个组件。
如果用户请求的内存大小超过了front-end 本身能缓存的大小(大内存需求),或者middle-end 缓存的内存页也被用尽了,那这个时候会直接让从back-end
分配内存给用户。
Front-end 在 TCMalloc 的演进过程中有两种类型的实现:
最开始的时候只支持 per-thread 的cache 模式,这也是TCMalloc 名字 Thread-Cacheing malloc的由来。然而这种场景会随着用户线程的大量增加,出现了一些内存问题:每个线程只能有极小的thread-cache,需要消耗较多的CPU资源来聚合每个线程的内存资源。
较新版本的TCMalloc 支持了 per-CPU 模式。这种模式下每一个逻辑CPU 会有自己的的thread-cache 用来为运行在这个cpu的现场分配内存。在x86系统上,每一个逻辑cpu 和 一个超线程等价,我们
lscpu
命令看到的cpu core是包括超线程的个数在内的。
1.1 小对象和大对象的内存分配过程
针对小内存对象的分配,Front-end的cache 会按照其大小将其映射到 60-80个size-classes 中的一个,实际的内存分配会按照该大小对应的size-class 的大小进行分配,size-class也是front-end 分配内存的粒度。
比如12B 的对象会best-fit到16B 的size-class中。设置这么多的size-class 还是为了尽可能得降低内存的浪费,比如原本的内存分配粒度都是2的n次幂,那对于23字节的内存需求就需要分配一个32字节的内存区域,而在tcmalloc的size-class的配置中只需要分配24字节即可。
Tcmalloc 在编译的时候可以配置 size-class 的 内存分配是按照多少 Bytes 对齐,比如指定了__STDCPP_DEFAULT_NEW_ALIGNMENT__ <= 8
,那size-class 内部可选的内存大小配置就是 8bytes 对齐,即8 bytes的倍数。如果编译时指定了大于 8bytes,那后续所有的 ::operator new
的内存申请都会按照 16 bytes 进行对齐。
对于大内存需求的对象来说,内存大小的需求超过kMaxSize
256K,则会直接从back-end
分配。因此,这一部分的内存需求不会缓存再 front-end 以及 middle-end 中,由back-end
的page-heap 进行管理。对于大内存对象的实际内存分配会按照tcmalloc page size 进行对齐。
1.2 内存释放过程
如果要释放一个对象,编译期间如果能够知道这个对象的大小,编译器会直接告诉分配器这个对象的大小。大多数的时候,编译期间并不清楚对象的大小,会从pagemap中查找这个对象。如果这个对象是一个小内存对象,释放的时候会告诉front-end cache进行管理,如果是一个超过kMaxSize
的对象,则会直接释放给back-end 的 pageheap。
1.3 Per-CPU mode
Per-cpu mode 和 per-thread mode 是 tcmalloc 的font-end 主体部分的两种模式。因为per-thread mode 受到系统进程的线程数的影响,在大量线程的情况下会让每个thread-cache 只能够处理一小部分的内存申请释放需求,还会消耗大量的cpu 来 由middle-end 进行不同thread-cache 之间的内存迁移。
所以 tcmalloc 提供了优化版本的 per-cpu mode,即每一个逻辑核 维护一个 ‘cpu-cache’ ,用来处理运行在当前核的线程的内存申请/释放需求。
大体形态如下:
Per-cpu mode 下会申请一个大内存块(也可以称为slab),这个slab 会被多个cpu共享,其中每一个cpu会 持有slab 的一部分内存,并在其上存储一系列元数据管理对应线程的内存对象。
上图中的cpu1 会管理 on slab 的绿色部分内存区域,在这一部分区域中会先存储一些元数据和指针来管理不同大小的 size-classes 的内存对象。其中元数据中包含一个header指针 和 每一个size-class 的索引block。
每一个size-class 的header 指针数据结构会有指向某一种实际存储内存对象的指针数组,即是一个数组,每一个元素是一个指针,总共是三个指针,分别指向这一种size-class 内存对象区域的起始地址块,当前地址块(后续分配这个size-class 大小对象的时候会从current 开始分配),最大地址。
每一个cpu 能够缓存的内存大小是通过SetMaxPerCpuCacheSize
配置的,也就是当前font-end 能够缓存的内存总大小取决去当前系统的cpu核心数,拥有更好核心数的机器使用tcmalloc 能够缓存更多的内存。为了避免 perf-cpu 长时间持有内存,tcmalloc 允许通过MallocExtension::ReleaseCpuMemory
接口来 指定释放某一个cpu的内存。
// 设置每一个cpu 能够cache住的内存大小
void MallocExtension::SetMaxPerCpuCacheSize(int32_t value) {#if ABSL_INTERNAL_HAVE_WEAK_MALLOCEXTENSION_STUBSif (MallocExtension_Internal_SetMaxPerCpuCacheSize == nullptr) {return;}MallocExtension_Internal_SetMaxPerCpuCacheSize(value); // 实际的执行函数
#else(void)value;
#endif
}// 释放某一个cpu cache的内存
size_t MallocExtension::ReleaseCpuMemory(int cpu) {#if ABSL_INTERNAL_HAVE_WEAK_MALLOCEXTENSION_STUBSif (MallocExtension_Internal_ReleaseCpuMemory != nullptr) {return MallocExtension_Internal_ReleaseCpuMemory(cpu);}
#endifreturn 0;
}
当每一个cpu cache 的内存被分配耗尽,想要从 middle-end 获取内存来缓存更多的对象时,也需要考虑对size-class进行扩容。如果这个size-class 的内存分配需求还在持续增加,则这个size-class的容量会持续增加,直到达到这个size-class 容量的hard-code。
1.4 Per-thread mode
用户可以指定使用某一个thread 的cache,也就是指定thread-local cache。小内存的申请和释放会根据thread-cache的需求在middle-end 之间迁移。
每一个 thread-cache 内部 不同size-class 对象会各自构造一个单链表(如果有 n 个size-classes,也就会有对应 n 个单链表),类似如下图:
分配某一个对应size-class 对象的时候,对应 size-class 链表对象会被从单链表移除(free-list),表示这个指针对应地址的内存可以被用户使用。释放对象的时候,则会将这个对象地址追加到thread-cache 管理的 size-class 的链表。
在这个过程中,如果thread-cache 管理的内存不够,或者超限,则会从 middle-end 获取更多的内存对象或者将多余的内存对象释放给 middle-end。
对于per-thread caches来说,可以通过 MallocExtension::SetMaxTotalThreadCacheBytes
设置最大的可用内存大小。每一个线程有自己的最小的 thread-cache 大小 KMinThreadCacheSize 512K,如果当前线程内存申请需求较大,内存容量也会通过middle-end 将其他线程的可用内存迁移到当前线程。
通过 middle-end 来协调当前的thread-cache 内存,通过ThreadCache::Scavenge();
进行。
如果当前线程退出,则会将自己的thread-cache 的内存返回给 middle-end。
1.5 per-cpu 和 per-thread 运行时内存管理算法对比
对于thread-cache 和 per-cpu cache来说,在应用程序运行的时候如果 front-end 的cache 内存太小,那就需要频繁从 central-freelist 也就是 middle-end 中获取内存;但如果太大,就会让过多的内存被闲置。如何配置一个合理的 front-end cache 的大小,这里两种模式都提供了动态配置 cache大小的算法。
- Per-thread 模式下,cache 内部的最大存储对象容量 达到当前最大阈值时就会从middle-end 获取更多的对象,从而增大这个限制。降低最大限制的前提是发现了较多的未被使用的对象,则会将这一些对象根据需求还给middle-end。
- Per-cpu 模式下,增加cache 容量的前提是当前cache 是否在频繁的从 middle-end 获取内存 以及 释放内存交替,则需增加容量限制,有更多的空间来缓存这一些内存对象。降低容量限制的前提是发现有一些空闲容量长时间没有被使用。
这里在代码细节上有很多的设计,比如如何设置合理的空闲时间的长度?如何界定 内存申请是频繁的?都是一些动态规划的最优思想的设计,值得去探索代码细节。
2. TCMalloc Middle-end
到此,font-end 部分大体设计描述完。从前面的设计中可以看到,middle-end 的作用在 per-cpu和per-thread 模式都有非常重要的作用。
Middle-end 的主要作用为 font-end 提供内存申请需求,并将空闲内存返回给 back-end。
Middle-end 的组成主要有 Transfer cache 和 Central free list。对于每一个size-class,都会有有一个各自的 transfer cache 和 central free list。这一些caches 会有自己的 mutex lock,所以对于这一些cache的访问, 因为锁粒度较低,则不会有过多的冲突,保证了访问的性能。
2.1 Transfer Cache
当 front-end 请求内存 或者 释放内存的时候,会先到达 transfer cache。
Transfer cache 会持有 一个数组指针进行内存的释放 或者 将新的内存对象填充进来并返回给font-end。
Transfer cache 会将一个cpu/tthread 释放的内存分配给另一个cpu/thread 对内存的需求,这个类似于内存池的 内存对象流动在两个不同的cpu/threads 之间可以非常迅速。
2.2 Central Free List
Central free list 通过 span
数据结构来管理内存,一个span 可以管理一个或者多个tcmalloc page,span
数据结构会在下文详细描述。
Font-end 如果从 central free list 请求一个或者多个内存对象的时候,central free list 会从span中提取对应大小的对象,如果此时span 没有足够的pages 返回,则会从back-end 请求更多的span。
当内存对象返回给central free list,则这一些对象会通过 pagemap 被映射到对应的span中进行管理,如果所有的对象都返回给span,这个span就可以被释放给back-end.
2.3 Pagemap 和 Spans
tcmalloc 管理的堆内存会在编译期间确定一个page-size,并将这么多内存映射为对应size的一个个page。一系列正在被使用的pages 可以被一个span 对象描述,一个span 对象可以管理一个大的内存对象,也可以按照size-class 管理多个小对象。
pagemap 则是用来查找一个内存对象属于哪一个span的,或者申请一个指定size-class 的内存对象。pagemap 是一个 2层或者3层的 radix-tree。下图展示了一个两层的 page-map 如何管理 span的,其中 spanA 管理了2个page,spanB 管理了三个page。
Span 这个数据结构 在 middle-end中用来 管理回收的内存对象;在back-end 用来管理 对应大小的pages,负责给central-list 提供对应大小的span。
3. TCMalloc Backend
tcmalloc 的back-end 主要有三个工作线程:
- 管理未使用的大块内存区域
- 负责从 os 中获取内存,来满足其他组件的内存需求
- 负责将其他组件不需要返回的内存,还给os
还有两个后端组件:
- legacy pageheap. 管理tcmalloc 的pages
- 管理大页内存的 pageheap。用来提升应用程序大页内存的申请需求,降低TLB的miss。
3.1 Legacy Pageheap
legacy pageheap 是一个数组的freelist,统一管理可用内存页。数组的每一个节点是一个free list,也就是单链表。一般这个数组的大小 k < 256,对于第k 个数组元素来说,它的链表中的每一个节点都管理了 k 个pages。
如果想要申请 k 个pages,则直接查找这个数组的第k 个元素,从free list中取一个节点即可。如果这个free list是空的,那就查找下一个数组元素的free list,直到找到一个非空的free list。如果还是失败,则直接mmap 获取内存。
当一段连续的pages 被返回给了pageheap,则会根据当前pages 是否能够形成一个连续的pages区域,然后串联这一些pages 并根据page数量 添加到对应的free list中。
3.2 大页场景分配器设计
针对hugepage 的分配器设计 是希望其能够有效持有 hugepage 大小的内存块,需要的时候能够快速分配,不需要的时候也能在合理的内存占用情况下释放给操作系统。
hugepage 在x86 系统上一般是2M 及 以上的大小,tcmalloc 的back-end 拥有三个不同的cache 来管理大页内存的分配:
- filler cache。能够持有hugepage ,并提供一些大页内存的申请需求。类似于legacy pageheap,通过一些free lists 管理pages 那样管理huge page,主要用于处理小于hugepage 大小的内存申请。
- region cache。用于大于hugepage 大小的内存申请,这个cache 允许分配多个连续的hugepage。
- hugepage cache。和region cache的功能有点重复,也是用于分配大于hugepage 的内存申请。
4. 参考
tcmalloc 设计 : https://google.github.io/tcmalloc/design.html
TCMalloc(Thread-Caching malloc) 基本设计原理相关推荐
- 腾讯架构师理解的并发编程基石——Thread类的工作原理
1. 开篇词 说到并发编程,可能大家脑海中的第一印象会是 Thread.多线程.JUC.线程池.ThreadLocal 等等内容.确实,并发编程是 Java 编程中不可或缺的一部分,掌握并发编程的核心 ...
- 10张图22段代码,万字长文带你搞懂虚拟内存模型和malloc内部原理
成功是急不来的.不计较眼前得失,将注意力真正着眼于正在做的事情本身,持续付出努力,才能一步步向前迈进,逐渐达到理想的目标.不着急,才能从容不迫,结果自会水到渠成. 大家好,我是程序喵! 摊牌了,不装了 ...
- java thread类_Java多线程原理及Thread类详解
多线程原理 代码如下: 自定义线程类: 测试类: 流程图: 程序启动运行main时候,java虚拟机启动一个进程,主线程main在main()调用时候被创建.随着调用mt的对象的start方法,另外一 ...
- malloc实现原理
记得早一段时间,看到一本书上写过delete的一个..今天突然找啦一下资料: malloc()是C语言中动态存储管理 的一组标准库函数之中的一个.其作用是在内存的动态存储区中分配一个长度为size的连 ...
- malloc实现原理探究
2021年末面试蔚来汽车,面试官考察了malloc/free的实现机制.当时看过相关的文章,有一点印象,稍微说了一点东西,不过自己感到不满意.今天尝试研究malloc的实现细节,看了几篇博文,发现众说 ...
- 详解虚拟内存模型和malloc内部原理
- 电磁铁的基本设计原理及主要用途
当直流电通过导体时会产生磁场,而通过作成螺线管的导体时则会产生类似棒状磁铁的磁场.在螺线管的中心加入一磁性物质则此磁性物质会被磁化而达到加强磁场的效果.因此,电磁铁所产生的磁场强度与直流电大小.线圈圈 ...
- golang(3)高质量编程与性能分析
1. 编程原则 实际场景千变万化,各种语言各不相同,但是高质量编程遵循的原则是相通的. 简单性 消除"多余的复杂性",以简单清晰的逻辑写代码 不理解的代码无法修复改进 可读性 代码 ...
- 一文搞定google perftool
文章目录 使用背景 TCMalloc 简介 TCMalloc 与 gperftools gperftools使用 gperftools 安装 编译安装libunwind 编译安装perftools 将 ...
最新文章
- IOS 编程中引用第三方的方类库的方法及常见问题
- Linux下各文件夹的结构说明及用途介绍(转载)
- DL之RNN:人工智能为你写代码——基于TF利用RNN算法实现生成编程语言代码(C++语言)、训练测试过程全记录
- JSP简单练习-javaBean的简单应用
- LINUX系统中动态链接库的创建和使用
- Leecode刷题热题HOT100(12)——整数转罗马数字
- Spring Cloud Eureka服务注册中心 单节点搭建(学习总结)
- python简单的爬虫实例
- Linux下tar压缩解压命令详解
- codeblock快捷键大全
- linux查看weblogic的安装目录,linux下weblogic安装并部署项目,图文详细.
- 2018年8月12日 今日头条笔试 整理
- Greenplum数据库巡检报告
- 农夫山泉2面面试经历
- 高德地图又出逆天黑科技!全国各大城市模型直接获取
- (一)MQTT+阿里云实现设备>云,云>设备之间的通信。
- (详细版Win10+Pycharm)YOLOX——训练自己的VOC2007数据集,以NWPU VHR-10 dataset为例
- Python实现斗地主
- SSD 速度对编译的影响
- [Nginx]Ngnix基础
热门文章
- 20162303 2016-2017-2 《程序设计与数据结构》第六周学习总结
- mysql主键约束和唯一性约束
- 【学习笔记】Silverlight框架:Jounce(4)——事件通信
- c#中分割字符串的几种方法
- SURF算法与SIFT算法的性能比较——图像特征点检测与提取算法分析
- java的scanner用法_Java Scanner用法详解
- mysql连接池为何不用nio_为什么要用数据库连接池?
- http状态404 vscode_VS Code 调试完全攻略(5):基于浏览器的 React 应用
- php怎么看数据化,3.2.11 查看和判断数据类型
- 智能电视验收测试软件,验收测试