BEP 7:CUDA外部内存管理插件(下)

Numba依赖
向库中添加EMM插件的实现自然会使Numba成为库的依赖项,而以前可能没有。为了使依赖关系可选,如果需要的话,可以有条件地实例化并注册EMM插件,如下所示:
try:
import numba
from mylib.numba_utils import MyNumbaMemoryManager
numba.cuda.cudadrv.driver.set_memory_manager(MyNumbaMemoryManager)
except:
print(“Numba not importable - not registering EMM Plugin”)
因此,mylib.numba_utils仅在Numba已经存在的情况下才导入包含EMM插件实现的。如果Numba不可用,则将永远不会导入mylib.numba_utils(必须是import numba)。
建议所有带有EMM插件的库至少包括一些带有Numba的环境,以便在使用中使用EMM插件进行测试,以及一些不带Numba的环境,以避免引入意外的Numba依赖关系。
示例实现-RAPIDS内存管理器(RMM)插件
本节概述了Rapids Memory Manager(RMM)中EMM插件的实现。这旨在显示实现的概述,以支持上述说明,并说明如何使用插件API-可以为产品就绪的实现做出不同的选择。
插件实现包括python / rmm / rmm.py的附加内容:

New imports:

from contextlib import context_manager

RMM already has Numba as a dependency, so these imports need not be guarded

by a check for the presence of numba.

from numba.cuda import (HostOnlyCUDAMemoryManager, MemoryPointer, IpcHandle,
set_memory_manager)

New class implementing the EMM Plugin:

class RMMNumbaManager(HostOnlyCUDAMemoryManager):
def memalloc(self, size):
# Allocates device memory using RMM functions. The finalizer for the
# allocated memory calls back to RMM to free the memory.
addr = librmm.rmm_alloc(bytesize, 0)
ctx = cuda.current_context()
ptr = ctypes.c_uint64(int(addr))
finalizer = _make_finalizer(addr, stream)
return MemoryPointer(ctx, ptr, size, finalizer=finalizer)

def get_ipc_handle(self, memory):
“”"
Get an IPC handle for the memory with offset modified by the RMM memory
pool.
“”"
# This implementation provides a functional implementation and illustrates
# what get_ipc_handle needs to do, but it is not a very “clean”
# implementation, and it relies on borrowing bits of Numba internals to
# initialise ipchandle.
#
# A more polished implementation might make use of additional functions in
# the RMM C++ layer for initialising IPC handles, and not use any Numba
# internals.
ipchandle = (ctypes.c_byte * 64)() # IPC handle is 64 bytes
cuda.cudadrv.memory.driver_funcs.cuIpcGetMemHandle(
ctypes.byref(ipchandle),
memory.owner.handle,
)
source_info = cuda.current_context().device.get_device_identity()
ptr = memory.device_ctypes_pointer.value
offset = librmm.rmm_getallocationoffset(ptr, 0)
return IpcHandle(memory, ipchandle, memory.size, source_info,
offset=offset)

def get_memory_info(self):# Returns a tuple of (free, total) using RMM functionality.return get_info() # Function defined in rmm.pydef initialize(self):# Nothing required to initialize RMM here, but this method is added# to illustrate that the super() method should also be called.super().initialize()@contextmanager
def defer_cleanup(self):# Does nothing to defer cleanup - a full implementation may choose to# implement a different policy.with super().defer_cleanup():yield@property
def interface_version(self):# As required by the specificationreturn 1

The existing _make_finalizer function is used by RMMNumbaManager:

def _make_finalizer(handle, stream):
“”"
Factory to make the finalizer function.
We need to bind handle and stream into the actual finalizer, which
takes no args.
“”"

def finalizer():"""Invoked when the MemoryPointer is freed"""librmm.rmm_free(handle, stream)return finalizer

Utility function register RMMNumbaManager as an EMM:

def use_rmm_for_numba():
set_memory_manager(RMMNumbaManager)

To support NUMBA_CUDA_MEMORY_MANAGER=rmm:

_numba_memory_manager = RMMNumbaManager
用法示例
将Numba配置为使用RMM进行内存管理,并创建设备阵列的简单示例如下:

example.py

import rmm
import numpy as np

from numba import cuda

rmm.use_rmm_for_numba()

a = np.zeros(10)
d_a = cuda.to_device(a)
del(d_a)
print(rmm.csv_log())
运行此命令将导致输出类似于以下内容:
注意,在RMM中有一些改进的余地,可以检测发生分配/空闲的行号,但这超出了本提议示例的范围。
通过环境设置内存管理器
除了调用rmm.use_rmm_for_numba()上面的示例之外,还可以将内存管理器设置为在环境变量中全局使用RMM,因此将调用Python解释器以如下方式运行示例:
Numba内部变更
本部分主要面向Numba开发人员-对实现EMM插件的外部接口感兴趣的开发人员可以选择跳过本部分。
当前模型/实施
目前,Context该类中实现了内存管理 。它维护分配和释放的清单:
• allocations是numba.core.utils.UniqueDict在上下文创建时创建的。
• deallocations是_PendingDeallocs该类的实例,并在Context.prepare_for_use()调用时创建。
这些用于跟踪以下对象的分配和解除分配:
• 设备内存
• 固定内存
• 映射内存
• 流
• 记录
• 模组
_PendingDeallocs类实现延迟释放的策略-清除功能(如cuMemFree),用于上述项目由表示分配对象的最后,加到其未决解除分配的列表。当Python解释器对拥有这些终结器的对象进行垃圾回收时,将运行这些终结器。当向取消分配列表添加新的清除功能,导致挂起的取消分配的数量或大小超过配置的比率时,该_PendingDeallocs对象将为其已知的所有项目运行解除分配器,然后清除其内部挂起的列表。
有关此实现的更多详细信息,请参见解除分配。
变更
本节概述了为支持EMM插件API而进行的主要更改-为了适应这些更改,需要对Numba的其它部分进行各种小的更改;没有提供这些的详尽列表。
上下文变化
该numba.cuda.cudadrv.driver.Context将不再直接分配和释放内存。相反,上下文将保留对内存管理器实例的引用,并且其内存分配方法将调用内存管理器,例如:
def memalloc(self, size):
return self.memory_manager.memalloc(size)

def memhostalloc(self, size, mapped=False, portable=False, wc=False):
return self.memory_manager.memhostalloc(size, mapped, portable, wc)

def mempin(self, owner, pointer, size, mapped=False):
if mapped and not self.device.CAN_MAP_HOST_MEMORY:
raise CudaDriverError("%s cannot map host memory" % self.device)
return self.memory_manager.mempin(owner, pointer, size, mapped)

def prepare_for_use(self):
self.memory_manager.initialize()

def get_memory_info(self):
self.memory_manager.get_memory_info()

def get_ipc_handle(self, memory):
return self.memory_manager.get_ipc_handle(memory)

def reset(self):
# … Already-extant reset logic, plus:
self._memory_manager.reset()
在memory_manager创建上下文时构件被初始化。
该memunpin方法(上面未显示,但当前存在于Context 类中)从未实现过-它当前引发一个NotImplementedError。此方法可以说是不需要的-固定内存将由其终结器立即解除锁定,并且在终结器运行之前解除锁定将使PinnedMemory仍保留其引用的对象的状态无效 。建议在对Context类进行其它更改时将其删除。
该Context班将仍然实例化self.allocations,并 self.deallocations像以前一样-这些仍然会通过上下文来管理事件,流和模块,这不是由EMM插件处理的分配和释放。
driver模块的新组件
• BaseCUDAMemoryManager:一个抽象类,如上面的插件接口中所定义。
• HostOnlyCUDAMemoryManager:子类BaseCUDAMemoryManager,逻辑来自Context.memhostalloc和Context.mempin移入其中。该类还将创建自己的allocations和deallocations成员,类似于Context该类如何创建它们和成员。这些用于管理固定和映射的host内存的分配和重新分配。
• NumbaCUDAMemoryManager:子类HostOnlyCUDAMemoryManager,其中还包含memalloc基于Context类中当前存在的实现。这是默认的内存管理器,在添加EMM插件接口之前,它的使用会保留Numba的行为-也就是说,Numba数组的所有内存分配和释放都在Numba中处理。
o 此类与其父类共享allocations和deallocations成员HostOnlyCUDAMemoryManager,并将它们用于管理其分配的设备内存。
• 该set_memory_manager函数设置指向内存管理器类的全局指针。该全局变量最初成立NumbaCUDAMemoryManager(默认)。
分级IPC
分级IPC不应拥有其分配的内存的所有权。使用默认的内部内存管理器时,已为临时阵列分配的内存已拥有。使用EMM插件时,获取内存所有权是不合法的。
可以通过应用以下小补丁来进行此更改,该小补丁已经过测试,对CUDA测试套件没有影响:
diff --git a/numba/cuda/cudadrv/driver.py b/numba/cuda/cudadrv/driver.py
index 7832955…f2c1352 100644
— a/numba/cuda/cudadrv/driver.py
+++ b/numba/cuda/cudadrv/driver.py
@@ -922,7 +922,11 @@ class _StagedIpcImpl(object):
with cuda.gpus[srcdev.id]:
impl.close()

  •    return newmem.own()
    
  •    return newmem
    

测试
除了为新功能添加适当的测试外,还将对所需的现有测试进行一些重构,但是这些更改并不重要。重新分配策略的检查(如TestDeallocation, TestDeferCleanup),就需要进行修改,以确保正在研究组正确的释放操作的。使用EMM插件时,将需要跳过它们。
原型/实验实施
已经产生了一些原型/实验性实施方式来说明本文档中介绍的设计。当前的实现可以在以下位置找到:
• Numba分支:https : //github.com/gmarkall/numba/tree/grm-numba-nbep-7。
• RMM分支:https : //github.com/gmarkall/rmm/tree/grm-numba-nbep-7。
• CuPy实施:https : //github.com/gmarkall/nbep-7/blob/master/nbep7/cupy_mempool.py-使用未经修改的CuPy。
o 请参阅CuPy内存管理文档。
目前的实施状态
RMM插件
举一个最小的例子,简单的分配和免费使用RMM可以按预期工作。对于示例代码(类似于上面的RMM示例):
import rmm
import numpy as np

from numba import cuda

rmm.use_rmm_for_numba()

a = np.zeros(10)
d_a = cuda.to_device(a)
del(d_a)
print(rmm.csv_log())
看到以下输出:
此输出类似于上面提供的示例用法的预期输出(尽管请注意,指针地址和时间戳与示例相比有所不同),并提供了示例用法的一些验证。
CuPy插件
from nbep7.cupy_mempool import use_cupy_mm_for_numba
import numpy as np

from numba import cuda

use_cupy_mm_for_numba()

a = np.zeros(10)
d_a = cuda.to_device(a)
del(d_a)
原型CuPy插件具有一些原始记录,因此看到了输出:
Numba CUDA单元测试
除了提供正确的简单示例执行之外,所有相关的Numba CUDA单元测试也都通过了原型分支,用于内部内存管理器和RMM EMM插件。
RMM
单元测试套件可以与具有以下功能的RMM EMM插件一起运行:
单元测试套件输出的摘要是:
与内置的Numba内存管理一起运行时,输出为:
也就是说,使用外部内存管理器进行的更改不会破坏内置的Numba内存管理。另外还有6个跳过的测试,来自:
• TestDeallocation:由于专门测试Numba的内部释放策略而被跳过。
• TestDeferCleanup:由于专门测试Numba的延迟清除实施而被跳过。
• TestCudaArrayInterface.test_ownership:由于使用EMM插件时Numba不拥有内存而被跳过,但是此测试用例假定拥有所有权。
CuPy
可以使用CuPy插件运行测试套件,方法是:
目前,该插件实现比RMM实现更原始,并且会导致单元测试套件出现一些错误:
这8个错误是由于缺少get_ipc_handleCuPy EMM插件实现中的实现。预计将重新访问并完成此实现,以便将来可以将CuPy稳定用作Numba的分配器。

BEP 7:CUDA外部内存管理插件(下)相关推荐

  1. BEP 7:CUDA外部内存管理插件(上)

    BEP 7:CUDA外部内存管理插件(上) 背景和目标 在CUDA阵列接口使得能够共享不同的Python之间的数据库的访问CUDA设备.但是,每个库都与其它库区别对待.例如: • Numba在内部管理 ...

  2. 操作系统核心原理-5.内存管理(下):段式内存管理

    一.分页系统的缺点 分页系统存在的一个无法容忍,同时也是分页系统无法解决的一个缺点就是:一个进程只能占有一个虚拟地址空间.在此种限制下,一个程序的大小至多只能和虚拟空间一样大,其所有内容都必须从这个共 ...

  3. 32查运行内存的map文件_linux内存管理

    概念先行 先理解内存管理中的几个概念:内存,主存,缓存,外存,虚拟内存,物理内存,虚拟地址,物理地址 外存: 计算机的外部存储,比如硬盘(机械硬盘.固态硬盘.混合硬盘),usb 内存: 用于计算机运行 ...

  4. OC内存管理常见面试题整理

    1:简述OC中内存管理机制.与retain配对使用的方法是dealloc还是release,为什么?需要与alloc配对使用的方法是dealloc还是release,为什么?readwrite,rea ...

  5. Oracle 自己主动内存管理 SGA、PGA 具体解释

    ASMM自己主动共享内存管理: 自己主动依据工作量变化调整 最大程度地提高内存利用率 有助于消除内存不足的错误 SYS@PROD>show parameter sga NAME          ...

  6. Spark内存管理(1)—— 静态内存管理

    Spark内存管理简介 Spark从1.6开始引入了动态内存管理模式,即执行内存和存储内存之间可以相互抢占  Spark提供了2种内存分配模式: 静态内存管理 统一内存管理 本系列文章将分别对这两种内 ...

  7. 从内存管理原理,窥探OS内存管理机制

    摘要:本文将从最简单的内存管理原理说起,带大家一起窥探OS的内存管理机制,由此熟悉底层的内存管理机制,写出高效的应用程序. 本文分享自华为云社区<探索OS的内存管理原理>,作者:元闰子 . ...

  8. Objective-c的内存管理MRC与ARC

    Objective-c的内存管理MRC与ARC   Objective-c中提供了两种内存管理机制MRC(MannulReference Counting)和ARC(Automatic Referen ...

  9. Apache Spark 内存管理详解

    原文出处: IBM developerWorks Spark 作为一个基于内存的分布式计算引擎,其内存管理模块在整个系统中扮演着非常重要的角色.理解 Spark 内存管理的基本原理,有助于更好地开发 ...

最新文章

  1. 一文深入了解 Redis 内存模型,Redis 的快是有原因的!
  2. 某快手程序员吐槽:月薪四万很惶恐!和老婆亲热时都在想工作,薪资越高,做人越怂!...
  3. oracle输入数字类型吗,PL/SQL Number数字类型函数
  4. Python总结:Python基础(一)
  5. arthas使用示例:trace追踪方法调用路径及统计方法耗时
  6. 6-3Table API SQL简介
  7. 小米11终于来了,12月28日见!
  8. pycharm无法安装第三方的包(AttributeError: module 'pip' has no attribute 'main')
  9. PL/SQL Developer 导入导出操作
  10. react小书没读完的记录
  11. arm+linux书籍
  12. 【洛谷 P3809】 【后缀数组】【模板】后缀排序
  13. mac电脑如何查看cpu占用率?以及如何修复Mac的“ kernel_task” CPU使用率过高的Bug
  14. 动态规划Dynamic programming笔记自用
  15. 电阻的耐功率冲击与耐电压冲击
  16. java 纳秒 位数_java-解析少于6位的纳秒
  17. jdk15和jdk8_jdk15下载
  18. input验证邮箱 css,jquery验证邮箱格式并显示提交按钮
  19. input输入框输满3个字符自动跳到下一个input输入框
  20. LEARN TO DESIGN THE HEURISTICS FOR VEHICLE ROUTING PROBLEM翻译

热门文章

  1. 2022-2028年中国测绘设备行业研究及前瞻分析报告
  2. 2022-2028年中国抗菌玻璃行业市场研究及前瞻分析报告
  3. javascript的知识总结
  4. 解决git本地提交不到远程库
  5. 使用 Pytorch 实现 skip-gram 的 word2vec
  6. LeetCode简单题之长度为三且各字符不同的子字符串
  7. LeetCode简单题之两句话中的不常见单词
  8. 2020了,还要学JSP嘛?入个门呗!毕竟Servlet亲兄弟~
  9. CUDA功能和通用功能
  10. Activity在有Dialog时按Home键的生命周期