Multi-thread--提高C++性能的编程技术笔记:多线程内存池+测试代码
为了使多个线程并发地分配和释放内存,必须在分配器方法中添加互斥锁。
全局内存管理器(通过new()和delete()实现)是通用的,因此它的开销也非常大。
因为单线程内存管理器要比多线程内存管理器快的多,所以如果要分配的大多数内存块限于单线程中使用,那么可以显著提升性能。
如果开发了一套有效的单线程分配器,那么通过模板可以方便地将它们扩展到多线程环境中。
以下是测试代码(multi_threaded_memory_pool.cpp):
- #include "multi_threaded_memory_pool.hpp"
- #include <iostream>
- #include <chrono>
- #include <string>
- #include <mutex>
- namespace multi_threaded_memory_pool_ {
- // reference: 《提高C++性能的编程技术》:第七章:多线程内存池
- class Rational1 {
- public:
- Rational1(int a = 0, int b = 1) : n(a), d(b) {}
- private:
- int n; // 分子
- int d; // 分母
- };
- // 单线程可变大小内存管理器:
- // MemoryChunk类取代之前版本中使用的NextOnFreeList类,它用来把不同大小的内存块连接起来形成块序列
- class MemoryChunk {
- public:
- MemoryChunk(MemoryChunk* nextChunk, size_t chunkSize);
- // 析构函数释放构造函数获得的内存空间
- ~MemoryChunk() { delete [] mem; }
- inline void* alloc(size_t size);
- inline void free(void* someElement);
- // 指向列表下一内存块的指针
- MemoryChunk* nextMemChunk() { return next; }
- // 当前内存块剩余空间大小
- size_t spaceAvailable() { return chunkSize - bytesAlreadyAllocated; }
- // 这是一个内存块的默认大小
- enum { DEFAULT_CHUNK_SIZE = 4096 };
- private:
- MemoryChunk* next;
- void* mem;
- // 一个内存块的默认大小
- size_t chunkSize;
- // 当前内存块中已分配的字节数
- size_t bytesAlreadyAllocated;
- };
- // 构造函数首先确定内存块的适当大小,然后根据这个大小从堆上分配私有存储空间
- // MemoryChunk将next成员指向输入参数nextChunk, nextChunk是列表先前的头部
- MemoryChunk::MemoryChunk(MemoryChunk* nextChunk, size_t reqSize)
- {
- chunkSize = (reqSize > DEFAULT_CHUNK_SIZE) ? reqSize : DEFAULT_CHUNK_SIZE;
- next = nextChunk;
- bytesAlreadyAllocated = 0;
- mem = new char[chunkSize];
- }
- // alloc函数处理内存分配请求,它返回一个指针,该指针指向mem所指向的MemoryChunk私有存储空间中的可用空间。
- // 该函数通过更新该块中已分配的字节数来记录可用空间的大小
- void* MemoryChunk::alloc(size_t requestSize)
- {
- void* addr = static_cast<void*>(static_cast<char*>(mem) + bytesAlreadyAllocated);
- bytesAlreadyAllocated += requestSize;
- return addr;
- }
- // 在该实现中,不用担心空闲内存段的释放。当对象被删除后,整个内存块将被释放并且返回到堆上
- inline void MemoryChunk::free(void* doomed)
- {
- }
- // MemoryChunk只是一个辅助类,ByteMemoryPoll类用它来实现可变大小的内存管理
- class ByteMemoryPool {
- public:
- ByteMemoryPool(size_t initSize = MemoryChunk::DEFAULT_CHUNK_SIZE);
- ~ByteMemoryPool();
- // 从私有内存池分配内存
- inline void* alloc(size_t size);
- // 释放先前从内存池中分配的内存
- inline void free(void* someElement);
- private:
- // 内存块列表,它是我们的私有存储空间
- MemoryChunk* listOfMemoryChunks = nullptr;
- // 向我们的私有存储空间添加一个内存块
- void expandStorage(size_t reqSize);
- };
- // 虽然内存块列表可能包含多个块,但只有第一块拥有可用于分配的内存。其它块表示已分配的内存。
- // 列表的首个元素是唯一能够分配可以内存的块。
- // 构造函数接收initSize参数来设定一个内存块的大小,即构造函数借此来设置单个内存块的大小。
- // expandStorage方法使listOfMemoryChunks指向一个已分配的MemoryChunk对象
- // 创建ByteMemoryPool对象,生成私有存储空间
- ByteMemoryPool::ByteMemoryPool(size_t initSize)
- {
- expandStorage(initSize);
- }
- // 析构函数遍历内存块列表并且删除它们
- ByteMemoryPool::~ByteMemoryPool()
- {
- MemoryChunk* memChunk = listOfMemoryChunks;
- while (memChunk) {
- listOfMemoryChunks = memChunk->nextMemChunk();
- delete memChunk;
- memChunk = listOfMemoryChunks;
- }
- }
- // alloc函数确保有足够的可用空间,而把分配任务托付给列表头的MemoryChunk
- void* ByteMemoryPool::alloc(size_t requestSize)
- {
- size_t space = listOfMemoryChunks->spaceAvailable();
- if (space < requestSize) {
- expandStorage(requestSize);
- }
- return listOfMemoryChunks->alloc(requestSize);
- }
- // 释放之前分配的内存的任务被委派给列表头部的MemoryChunk来完成
- // MemoryChunk::free不做任何事情,因为ByteMemoryPool的实现不会重用之前分配的内存。如果需要更多内存,
- // 我们将创建新的内存块以便今后分配使用。在内存池被销毁时,内存释放回堆中。ByteMemoryPool析构函数
- // 释放所有的内存块到堆中
- inline void ByteMemoryPool::free(void* doomed)
- {
- listOfMemoryChunks->free(doomed);
- }
- // 若遇到内存块用尽这种不太可能的情况,我们通过创建新的内存块并把它添加到内存块列表的头部来扩展它
- void ByteMemoryPool::expandStorage(size_t reqSize)
- {
- listOfMemoryChunks = new MemoryChunk(listOfMemoryChunks, reqSize);
- }
- // 多线程内存池实现
- template<class POOLTYPE, class LOCK>
- class MTMemoryPool {
- public:
- // 从freeList里分配一个元素
- inline void* alloc(size_t size);
- // 返回一个元素给freeList
- inline void free(void* someElement);
- private:
- POOLTYPE stPool; // 单线程池
- LOCK theLock;
- };
- // alloc方法将分配任务委托给内存池成员,而将锁定任务委托给锁成员
- template<class M, class L>
- inline void* MTMemoryPool<M, L>::alloc(size_t size)
- {
- void* mem;
- theLock.lock();
- mem = stPool.alloc(size);
- theLock.unlock();
- return mem;
- }
- template<class M, class L>
- inline void MTMemoryPool<M, L>::free(void* doomed)
- {
- theLock.lock();
- stPool.free(doomed);
- theLock.unlock();
- }
- class ABCLock { // 抽象基类
- public:
- virtual ~ABCLock() {}
- virtual void lock() = 0;
- virtual void unlock() = 0;
- };
- class MutexLock : public ABCLock {
- public:
- MutexLock() {}
- ~MutexLock() {}
- inline void lock() { mtx.lock(); }
- inline void unlock() { mtx.unlock(); }
- private:
- std::mutex mtx;
- };
- class Rational2 {
- public:
- Rational2(int a = 0, int b = 1) : n(a),d(b) {}
- void* operator new(size_t size) { return memPool->alloc(size); }
- void operator delete(void* doomed, size_t size) { memPool->free(doomed); }
- static void newMemPool() { memPool = new MTMemoryPool<ByteMemoryPool, MutexLock>; }
- static void deleteMemPool() { delete memPool; }
- private:
- int n; // 分子
- int d; // 分母
- static MTMemoryPool<ByteMemoryPool, MutexLock>* memPool;
- };
- MTMemoryPool<ByteMemoryPool, MutexLock>* Rational2::memPool = nullptr;
- ///
- // 多线程内存池实现应用在单线程环境中
- class DummyLock : public ABCLock {
- public:
- inline void lock() {}
- inline void unlock() {}
- };
- class Rational3 {
- public:
- Rational3(int a = 0, int b = 1) : n(a),d(b) {}
- void* operator new(size_t size) { return memPool->alloc(size); }
- void operator delete(void* doomed, size_t size) { memPool->free(doomed); }
- static void newMemPool() { memPool = new MTMemoryPool<ByteMemoryPool, DummyLock>; }
- static void deleteMemPool() { delete memPool; }
- private:
- int n; // 分子
- int d; // 分母
- static MTMemoryPool<ByteMemoryPool, DummyLock>* memPool;
- };
- MTMemoryPool<ByteMemoryPool, DummyLock>* Rational3::memPool = nullptr;
- int test_multi_threaded_memory_pool_1()
- {
- using namespace std::chrono;
- high_resolution_clock::time_point time_start, time_end;
- const int cycle_number1{10000}, cycle_number2{1000};
- { // 测试全局函数new()和delete()的基准性能
- Rational1* array[cycle_number2];
- time_start = high_resolution_clock::now();
- for (int j =0; j < cycle_number1; ++j) {
- for (int i =0; i < cycle_number2; ++i) {
- array[i] = new Rational1(i);
- }
- for (int i = 0; i < cycle_number2; ++i) {
- delete array[i];
- }
- }
- time_end = high_resolution_clock::now();
- fprintf(stdout, "global function new/delete time spent: %f seconds\n",(duration_cast<duration<double>>(time_end - time_start)).count());
- }
- { // 多线程内存池测试代码
- Rational2* array[cycle_number2];
- time_start = high_resolution_clock::now();
- Rational2::newMemPool();
- for (int j = 0; j < cycle_number1; ++j) {
- for (int i = 0; i < cycle_number2; ++i) {
- array[i] = new Rational2(i);
- }
- for (int i = 0; i < cycle_number2; ++i) {
- delete array[i];
- }
- }
- Rational2::deleteMemPool();
- time_end = high_resolution_clock::now();
- fprintf(stdout, "multi-threaded variable-size memory manager time spent: %f seconds\n",(duration_cast<duration<double>>(time_end - time_start)).count());
- }
- { // 多线程内存池应用在单线程环境下测试代码
- Rational3* array[cycle_number2];
- time_start = high_resolution_clock::now();
- Rational3::newMemPool();
- for (int j = 0; j < cycle_number1; ++j) {
- for (int i = 0; i < cycle_number2; ++i) {
- array[i] = new Rational3(i);
- }
- for (int i = 0; i < cycle_number2; ++i) {
- delete array[i];
- }
- }
- Rational3::deleteMemPool();
- time_end = high_resolution_clock::now();
- fprintf(stdout, "multi-threaded variable-size memory manager in single-threaded environment time spent: %f seconds\n",(duration_cast<duration<double>>(time_end - time_start)).count());
- }
- return 0;
- }
- } // namespace multi_threaded_memory_pool_
执行结果如下:
GitHub:https://github.com/fengbingchun/Messy_Test
转载自:https://blog.csdn.net/fengbingchun/article/details/84592548
Multi-thread--提高C++性能的编程技术笔记:多线程内存池+测试代码相关推荐
- 提高C++性能的编程技术笔记:编码优化+测试代码
缓存:在现代处理器中,缓存经常与处理器中的数据缓存和指令缓存联系在一起.缓存主要用来存储使用频繁而且代价高昂的计算结果,这样就可以避免对这些结果的重复计算.如,循环内对常量表达式求值是一种常见的低性能 ...
- 提高C++性能的编程技术笔记:引用计数+测试代码
引用计数(reference counting):基本思想是将销毁对象的职责从客户端代码转移到对象本身.对象跟踪记录自身当前被引用的数目,在引用计数达到零时自行销毁.换句话说,对象不再被使用时自行销毁 ...
- 提高C++性能的编程技术笔记:内联+测试代码
内联类似于宏,在调用方法内部展开被调用方法,以此来代替方法的调用.一般来说表达内联意图的方式有两种:一种是在定义方法时添加内联保留字的前缀:另一种是在类的头部声明中定义方法. 虽然内联方法的调用方式和 ...
- 提高C++性能的编程技术笔记:临时对象+测试代码
类型不匹配:一般情况是指当需要X类型的对象时提供的却是其它类型的对象.编译器需要以某种方式将提供的类型转换成要求的X类型.这一过程可能会产生临时对象. 按值传递:创建和销毁临时对象的代价是比较高的.倘 ...
- 提高C++性能的编程技术笔记:跟踪实例+测试代码
当提高性能时,我们必须记住以下几点: (1). 内存不是无限大的.虚拟内存系统使得内存看起来是无限的,而事实上并非如此. (2). 内存访问开销不是均衡的.对缓存.主内存和磁盘的访问开销不在同一个数量 ...
- 提高C++性能的编程技术笔记:多线程内存池+测试代码
为了使多个线程并发地分配和释放内存,必须在分配器方法中添加互斥锁. 全局内存管理器(通过new()和delete()实现)是通用的,因此它的开销也非常大. 因为单线程内存管理器要比多线程内存管理器快的 ...
- 提高C++性能的编程技术笔记:总结
<提高C++性能的编程技术>这本书是2011年出版的,书中有些内容的介绍可能已经过时,已不再适用于现在的C++编程中,但大部分内容还是很有参考意义的. 这里是基于之前所有笔记的简单总结,笔 ...
- 提高C++性能的编程技术笔记:设计优化/可扩展性/系统体系结构相关+测试代码
1. 设计优化 我们可以粗略地将性能优化分为两种类型:编码优化和设计优化.编码优化定义为不需要完整理解要解决的问题或者应用程序的执行流程就能实施的优化.通过定义看出,编码优化用于局部代码,同时该过程不 ...
- 提高C++性能的编程技术笔记:标准模板库+测试代码
标准模板库(Standard Template Library, STL)是容器和通用算法的强效组合. 渐近复杂度:算法的渐近复杂度是对算法性能的近似估计.它是算法集到特定性能标准集的映射.如果需要对 ...
最新文章
- KMP算法的详细解释及实现
- 梯度下降法——得到的结果可能是局部最优值,如果凸函数则可保证梯度下降得到的是全局最优值...
- python安装步骤电脑版-超详细的小白python3.X安装教程|Python安装
- linux update语句,MySQL 多表 update sql语句总结
- arcgis怎么用python重新排序_python - 根据排序数据添加新的顺序ID号(ArcGIS) - 堆栈内存溢出...
- 最优化学习笔记(十)——对偶线性规划
- 汉诺塔VII(递推,模拟)
- cs文件,外部类操作窗体控件
- mysql jdbc 驱动名称_【经验分享】常用 JDBC 驱动名字和 URL 列表
- linux 性能检测工具之 dstat
- 数据结构上机实践第二周项目1
- android如何展示富文本_Android中如何在textView实现富文本
- 橙子减肥法:好吃快速成为瘦美人 - 健康程序员,至尚生活!
- 微型计算机系统性能优化及测试,第八章 微型计算机系统的测试、优化和升级.doc...
- JS中every()和some()的对比使用丨蓄力计划
- 灵魂画手教你浅拷贝与深拷贝
- 头哥 (Educoder)数据结构与算法实验:实验11 TYJ动态规划
- 大数据学习:大数据就业前景和就业方向
- 如何回复客户英文邮件
- 削华为足,以适IBM之履的再造流程
热门文章
- 容器编排技术 -- Kubernetes kubectl 与 Docker 命令关系
- jQuery操作CSS常见问题
- 亮度 调整_摄影后期必备!如何用亮度蒙版技术精准调整照片影调
- java 课后习题 判断用户输入的数是否为质数
- Spring框架声明式事务管理
- 使用^、(异或、并且)位运算 实现算数加法(+)
- vue :key的说明 看到这文章,解决你的疑问
- 【Java】计算符号函数的值
- C#LeetCode刷题之#747-至少是其他数字两倍的最大数( Largest Number At Least Twice of Others)
- C#算法设计查找篇之01-顺序查找