作者 | 豌豆花下猫

来源 | python猫(ID:python_cat)

我之前的一篇文章,带大家揭晓了 Python 在给内置对象分配内存时的 5 个奇怪而有趣的小秘密。文中使用了sys.getsizeof()来计算内存,但是用这个方法计算时,可能会出现意料不到的问题。

文档中关于这个方法的介绍有两层意思:

  • 该方法用于获取一个对象的字节大小(bytes)

  • 它只计算直接占用的内存,而不计算对象内所引用对象的内存

也就是说,getsizeof() 并不是计算实际对象的字节大小,而是计算“占位对象”的大小。如果你想计算所有属性以及属性的属性的大小,getsizeof() 只会停留在第一层,这对于存在引用的对象,计算时就不准确。

例如列表 [1,2],getsizeof() 不会把列表内两个元素的实际大小算上,而只是计算了对它们的引用。举一个形象的例子,我们把列表想象成一个箱子,把它存储的对象想象成一个个球,现在箱子里有两张纸条,写上了球 1 和球 2 的地址(球不在箱子里),getsizeof() 只是把整个箱子称重(含纸条),而没有根据纸条上地址,找到两个球一起称重。

计算的是什么?

我们先来看看列表对象的情况:

如图所示,单独计算 a 和 b 列表的结果是 36 和 48,然后把它们作为 c 列表的子元素时,该列表的计算结果却仅仅才 36。(PS:我用的是 32 位解释器)

如果不使用引用方式,而是直接把子列表写进去,例如 “d = [[1,2],[1,2,3,4,5]]”,这样计算 d 列表的结果也还是 36,因为子列表是独立的对象,在 d 列表中存储的是它们的 id。

也就是说:getsizeof() 方法在计算列表大小时,其结果跟元素个数相关,但跟元素本身的大小无关。

下面再看看字典的例子:

明显可以看出,三个字典实际占用的全部内存不可能相等,但是 getsizeof() 方法给出的结果却相同,这意味着它只关心键的数量,而不关心实际的键值对是什么内容,情况跟列表相似。

“浅计算”与其它问题

有个概念叫“浅拷贝”,指的是 copy() 方法只拷贝引用对象的内存地址,而非实际的引用对象。类比于这个概念,我们可以认为 getsizeof() 是一种“浅计算”。

“浅计算”不关心真实的对象,所以其计算结果只是一个假象。这是一个值得注意的问题,但是注意到这点还不够,我们还可以发散地思考如下的问题:

  • “浅计算”方法的底层实现是怎样的?

  • 为什么 getsizeof() 会采用“浅计算”的方法?

关于第一个问题,getsizeof(x) 方法实际会调用 x 对象的__sizeof__() 魔术方法,对于内置对象来说,这个方法是通过 CPython 解释器实现的。

我查到这篇文章《Python中对象的内存使用(一)》,它分析了 CPython 源码,最终定位到的核心代码是这一段:

/*longobject.c*/static Py_ssize_t
int___sizeof___impl(PyObject *self)
{Py_ssize_t res;res = offsetof(PyLongObject, ob_digit) + Py_ABS(Py_SIZE(self))*sizeof(digit);return res;
}

我看不懂这段代码,但是可以知道的是,它在计算 Python 对象的大小时,只跟该对象的结构体的属性相关,而没有进一步作“深度计算”。

对于 CPython 的这种实现,我们可以注意到两个层面上的区别:

  • 字节增大:int 类型在 C 语言中只占到 4 个字节,但是在 Python 中,int 其实是被封装成了一个对象,所以在计算其大小时,会包含对象结构体的大小。在 32 位解释器中,getsizeof(1) 的结果是 14 个字节,比数字本身的 4 字节增大了。

  • 字节减少:对于相对复杂的对象,例如列表和字典,这套计算机制由于没有累加内部元素的占用量,就会出现比真实占用内存小的结果。

由此,我有一个不成熟的猜测:基于“一切皆是对象”的设计原则,int 及其它基础的 C 数据类型在 Python 中被套上了一层“壳”,所以需要一个方法来计算它们的大小,也即是 getsizeof()。

官方文档中说“All built-in objects will return correct results” [1],指的应该是数字、字符串和布尔值之类的简单对象。但是不包括列表、元组和字典等在内部存在引用关系的类型。

为什么不推广到所有内置类型上呢?我未查到这方面的解释,若有知情的同学,烦请告知。

“深计算”与其它问题

与“浅计算”相对应,我们可以定义出一种“深计算”。对于前面的两个例子,“深计算”应该遍历每个内部元素以及可能的子元素,累加计算它们的字节,最后算出总的内存大小。

那么,我们应该注意的问题有:

  • 是否存在“深计算”的方法/实现方案?

  • 实现“深计算”时应该注意什么?

Stackoverflow 网站上有个年代久远的问题“How do I determine the size of an object in Python?” [2],实际上问的就是如何实现“深计算”的问题。

有不同的开发者贡献了两个项目:pympler 和 pysize :第一个项目已发布在 Pypi 上,可以“pip install pympler”安装;第二个项目烂尾了,作者也没发布到 Pypi 上(注:Pypi 上已有个 pysize 库,是用来做格式转化的,不要混淆),但是可以在 Github 上获取到其源码。

对于前面的两个例子,我们可以拿这两个项目分别测试一下:

单看数值的话,pympler 似乎确实比 getsizeof() 合理多了。

再看看 pysize,直接看测试结果是(获取其源码过程略):

64
118
190
206
300281
30281

可以看出,它比 pympler 计算的结果略小。就两个项目的完整度、使用量与社区贡献者规模来看,pympler 的结果似乎更为可信。

那么,它们分别是怎么实现的呢?那微小的差异是怎么导致的?从它们的实现方案中,我们可以学习到什么呢?

pysize 项目很简单,只有一个核心方法:

def get_size(obj, seen=None):"""Recursively finds size of objects in bytes"""size = sys.getsizeof(obj)if seen is None:seen = set()obj_id = id(obj)if obj_id in seen:return 0# Important mark as seen *before* entering recursion to gracefully handle# self-referential objectsseen.add(obj_id)if hasattr(obj, '__dict__'):for cls in obj.__class__.__mro__:if '__dict__' in cls.__dict__:d = cls.__dict__['__dict__']if inspect.isgetsetdescriptor(d) or inspect.ismemberdescriptor(d):size += get_size(obj.__dict__, seen)breakif isinstance(obj, dict):size += sum((get_size(v, seen) for v in obj.values()))size += sum((get_size(k, seen) for k in obj.keys()))elif hasattr(obj, '__iter__') and not isinstance(obj, (str, bytes, bytearray)):size += sum((get_size(i, seen) for i in obj))if hasattr(obj, '__slots__'): # can have __slots__ with __dict__size += sum(get_size(getattr(obj, s), seen) for s in obj.__slots__ if hasattr(obj, s))return size

除去判断__dict__和 __slots__属性的部分(针对类对象),它主要是对字典类型及可迭代对象(除字符串、bytes、bytearray)作递归的计算,逻辑并不复杂。

以 [1,2] 这个列表为例,它先用 sys.getsizeof() 算出 36 字节,再计算内部的两个元素得 14*2=28 字节,最后相加得到 64 字节。

相比之下,pympler 所考虑的内容要多很多,入口在这:

    def asizeof(self, *objs, **opts):'''Return the combined size of the given objects(with modified options, see method **set**).'''if opts:self.set(**opts)self.exclude_refs(*objs)  # skip refs to objsreturn sum(self._sizer(o, 0, 0, None) for o in objs)

它可以接受多个参数,再用 sum() 方法合并。所以核心的计算方法其实是 _sizer()。但代码很复杂,绕来绕去像一座迷宫:

    def _sizer(self, obj, pid, deep, sized):  # MCCABE 19'''Size an object, recursively.'''s, f, i = 0, 0, id(obj)if i not in self._seen:self._seen[i] = 1elif deep or self._seen[i]:# skip obj if seen before# or if ref of a given objself._seen.again(i)if sized:s = sized(s, f, name=self._nameof(obj))self.exclude_objs(s)return s  # zeroelse:  # deep == seen[i] == 0self._seen.again(i)try:k, rs = _objkey(obj), []if k in self._excl_d:self._excl_d[k] += 1else:v = _typedefs.get(k, None)if not v:  # new typedef_typedefs[k] = v = _typedef(obj, derive=self._derive_,frames=self._frames_,infer=self._infer_)if (v.both or self._code_) and v.kind is not self._ign_d:# 猫注:这里计算 flat sizes = f = v.flat(obj, self._mask)  # flat sizeif self._profile:# profile based on *flat* sizeself._prof(k).update(obj, s)# recurse, but not for nested modulesif v.refs and deep < self._limit_ \and not (deep and ismodule(obj)):# add sizes of referentsz, d = self._sizer, deep + 1if sized and deep < self._detail_:# use named referentsself.exclude_objs(rs)for o in v.refs(obj, True):if isinstance(o, _NamedRef):r = z(o.ref, i, d, sized)r.name = o.nameelse:r = z(o, i, d, sized)r.name = self._nameof(o)rs.append(r)s += r.sizeelse:  # just size and accumulatefor o in v.refs(obj, False):# 猫注:这里递归计算 item sizes += z(o, i, d, None)# deepest recursion reachedif self._depth < d:self._depth = dif self._stats_ and s > self._above_ > 0:# rank based on *total* sizeself._rank(k, obj, s, deep, pid)except RuntimeError:  # XXX RecursionLimitExceeded:self._missed += 1if not deep:self._total += s  # accumulateif sized:s = sized(s, f, name=self._nameof(obj), refs=rs)self.exclude_objs(s)return s

它的核心逻辑是把每个对象的 size 分为两部分:flat size 和 item size。

计算 flat size 的逻辑在:

    def flat(self, obj, mask=0):'''Return the aligned flat size.'''s = self.baseif self.leng and self.item > 0:  # include itemss += self.leng(obj) * self.item# workaround sys.getsizeof (and numpy?) bug ... some# types are incorrectly sized in some Python versions# (note, isinstance(obj, ()) == False)# 猫注:不可 sys.getsizeof 的,则用上面逻辑,可以的,则用下面逻辑if not isinstance(obj, _getsizeof_excls):s = _getsizeof(obj, s)if mask:  # aligns = (s + mask) & ~maskreturn s

这里出现的 mask 是为了作字节对齐,默认值是 7,该计算公式表示按 8 个字节对齐。对于 [1,2] 列表,会算出 (36+7)&~7=40 字节。同理,对于单个的 item,比如列表中的数字 1,sys.getsizeof(1) 等于 14,而 pympler 会算成对齐的数值 16,所以汇总起来是 40+16+16=72 字节。这就解释了为什么 pympler 算的结果比 pysize 大。

字节对齐一般由具体的编译器实现,而且不同的编译器还会有不同的策略,理论上 Python 不应关心这么底层的细节,内置的 getsizeof() 方法就没有考虑字节对齐。

在不考虑其它 edge cases 的情况下,可以认为 pympler 是在 getsizeof() 的基础上,既考虑了遍历取引用对象的 size,又考虑到了实际存储时的字节对齐问题,所以它会显得更加贴近现实。

小结

getsizeof() 方法的问题是显而易见的,我创造了一个“浅计算”概念给它。这个概念借鉴自 copy() 方法的“浅拷贝”,同时对应于 deepcopy() “深拷贝”,我们还能推理出一个“深计算”。

前面展示了两个试图实现“深计算”的项目(pysize+pympler),两者在浅计算的基础上,深入地求解引用对象的大小。pympler 项目的完整度较高,代码中有很多细节上的设计,比如字节对齐。

Python 官方团队当然也知道 getsizeof() 方法的局限性,他们甚至在文档中加了一个链接 [3],指向了一份实现深计算的示例代码。那份代码比 pysize 还要简单(没有考虑类对象的情况)。

未来 Python 中是否会出现深计算的方法,假设命名为 getdeepsizeof() 呢?这不得而知了。

本文的目的是加深对 getsizeof() 方法的理解,区分浅计算与深计算,分析两个深计算项目的实现思路,指出几个值得注意的问题。

相关链接

Python 内存分配时的小秘密:https://dwz.cn/AoSdCZfo

Python中对象的内存使用(一):https://dwz.cn/SXGtXklz

[1] https://dwz.cn/yxg72lyS

[2] https://dwz.cn/5m83JStN

[3] https://code.activestate.com/recipes/577504

作者简介:豌豆花下猫,生于广东毕业于武大,现为苏漂程序员,有一些极客思维,也有一些人文情怀,有一些温度,还有一些态度。

【end】

精彩推荐

在这次疫情防控中,无感人体测温系统发挥了怎样的作用?它的技术原理是什么?无感人体测温系统的应用场景中有哪些关键技术与落地困难?高精准的无感人体测温系统的核心技术武器是什么?对于开发者们来说,大家应该了解哪些技术?

本周四晚八点,澎思科技智能安防行业解决方案副总监带来的直播《疫情防控天网:云端边下的全栈AI技术与应用》扫描二维码或者点击阅读原文即刻报名

推荐阅读

  • 机器会成为神吗?

  • 6个步骤,告诉你如何用树莓派和机器学习DIY一个车牌识别器!(附详细分析)

  • 微信回应钉钉健康码无法访问;谷歌取消年度I/O开发者大会;微软公布Visual Studio最新路线图

  • 什么是CD管道?一文告诉你如何借助Kubernetes、Ansible和Jenkins创建CD管道!

  • 智能合约初探:概念与演变

  • 血亏 1.5 亿元!微盟耗时 145 个小时弥补删库

  • 你点的每个“在看”,我都认真当成了AI

Python在计算内存时值得注意的几个问题相关推荐

  1. c python 内存冲突_Python在计算内存时应该注意的问题?

    我之前的一篇文章,带大家揭晓了 Python 在给内置对象分配内存时的 5 个奇怪而有趣的小秘密.文中使用了sys.getsizeof()来计算内存,但是用这个方法计算时,可能会出现意料不到的问题. ...

  2. python 跳过计算错误_在python中计算分数时如何跳过被0除的错误?

    我正在运行一个很长的CSV文件下面的函数.函数每50行计算列MFE的Z分数.这50行中有一些只包含零,因此在计算Zscore时,程序会停止,因为它不能被零除.如何解决这个问题,而不是停止程序运行打印这 ...

  3. python 字典操作 内存占用,python - 如何强行释放字典使用的内存? - SO中文参考 - www.soinside.com...

    我正在研究一个Python脚本,该脚本查询几个不同的数据库以整理数据并将所述数据持久保存到另一个数据库.该脚本从大约15个不同数据库中的数百万条记录中收集数据.为了尝试加快脚本速度,我提供了一些缓存功 ...

  4. 6.Python深入_内存管理

    Vamei博客地址:http://www.cnblogs.com/vamei/p/3232088.html 哈,这次是完完全全照搬大神的了 语言的内存管理是语言设计的一个重要方面.它是决定语言性能的重 ...

  5. python内存泄漏_诊断和修复Python中的内存泄漏

    python内存泄漏 Fugue uses Python extensively throughout the Conductor and in our support tools, due to i ...

  6. python科学计算基础教程pdf下载-Python科学计算 PDF 第2版

    给大家带来的一篇关于Python相关的电子书资源,介绍了关于Python.科学计算方面的内容,本书是由清华大学出版社出版,格式为PDF,资源大小59.5 MB,张若愚编写,目前豆瓣.亚马逊.当当.京东 ...

  7. Python科学计算之Pandas基础学习

    Python科学计算之Pandas基础学习 导入Pandas 我们首先要导入我们的演出明星--Pandas. 这是导入Pandas的标准方式.显然,我们不希望每时每刻都在程序中写'pandas',但是 ...

  8. python编写计算二项式值_python二项式期权定价方法

    金融科技的蓬勃发展,为了科技业注入了一股新的活水,确让传统的金融业者倍感威胁.但与其墨守成规,金融业界应该思考的是该怎么活用机器学习.人工智能等新兴技术,将智能灌注在既有的资料上,打造 的金融业务面貌 ...

  9. Python科学计算库核心知识点总结_代码篇(ML/DL依赖语法)

    Python科学计算库核心知识点总结_代码篇(ML/DL依赖语法)                                                                    ...

最新文章

  1. 竞赛专题(四)特征工程-竞赛中的必杀技
  2. mysql 按照指定顺序排序
  3. 数学狂想曲(十一)——高阶统计, 最速降线, 泛函 变分
  4. jax-rs jax-ws_JAX-WS入门
  5. fiddler抓包工具使用技巧
  6. 几十行python代码构建一个前后端分离的目标检测演示网站,代码开源
  7. android studio 中由于网络问题,编译错误
  8. linux 清除swap 数据,linux清除swap
  9. laravel Scout包在elasticsearch中的应用
  10. 制作咖啡店的banner
  11. crontab定时任务不执行,并且没有收到错误信息邮件
  12. 什么是格局、境界、眼界、眼光
  13. 一个学员去了互联网大厂一个笔试题分享
  14. 最详细的Cydia使用教程------完全版。新补充Cydia1.1.1离线安装(升级)方法。
  15. 决策树剪枝算法:REP/PEP/CCP算法
  16. 分享个打开a页面自动跳转到b页面的HTML代码
  17. 涨停之后第二天第三天会怎么样
  18. java 纹理_图像处理之图像纹理添加效果(利用JAVA 2D纹理画笔)
  19. 电脑常识:中文模式和英文模式下的符号有何区别?有何应用?
  20. python 简单网络编程

热门文章

  1. C# 对应 Oracle 存储过程 的 SYS_REFCURSOR 应该 传入什么类型的参数?
  2. GZip压缩与解压缩
  3. 达观数据于敬:个性化推荐系统实践
  4. 压缩和归档及vi的使用
  5. c语言-01背包问题
  6. Win7/Win8 系统下安装Oracle 10g 提示“程序异常终止,发生未知错误”的解决方法...
  7. Cisco网院成立10周年-未来三年在蓉增50所
  8. 想在SqlDbHelper.cs类中加的垃圾方法
  9. 横向瀑布流android,RecyclerView实现瀑布流布局
  10. 机器学习理论基础到底有多可靠?