摘要: 本文是针对Python设计一种并行处理数据的解决方案——使用Dask和Numba并行化加速运算速度。案例对比分析了几种不同方法的运算速度,非常直观,可供参考。

如果你善于使用Pandas变换数据、创建特征以及清洗数据等,那么你就能够轻松地使用Dask和Numba并行加速你的工作。单纯从速度上比较,Dask完胜Python,而Numba打败Dask,那么Numba+Dask基本上算是无敌的存在。将数值计算分成Numba sub-function和使用Dask map_partition+apply,而不是使用Pandas。对于100万行数据,使用Pandas方法和混合数值计算创建新特征的速度比使用Numba+Dask方法的速度要慢许多倍。

Python:60.9x | Dask:8.4x | Numba:5.8x |Numba+Dask:1x

作为旧金山大学的一名数据科学硕士,会经常跟数据打交道。使用Apply函数是我用来创建新特征或清理数据的众多技巧之一。现在,我只是一名数据科学家,而不是计算机科学方面的专家,但我是一个喜欢捣鼓并使得代码运行更快的程序员。现在,我将会分享我在并行应用上的经验。

大多Python爱好者可能了解Python实现的全局解释器锁(GIL),GIL会占用计算机中所有的CPU性能。更糟糕的是,我们主要的数据处理包,比如Pandas,很少能实现并行处理代码。

Apply函数vs Multiprocessing.map

%time df.some_col.apply(lambda x : clean_transform_kthx(x))
Wall time: HAH! RIP BUDDY
# WHY YOU NO RUN IN PARALLEL!?

Tidyverse已经为处理数据做了一些美好的事情,Plyr是我最喜爱的数据包之一,它允许R语言使用者轻松地并行化他们的数据应用。Hadley Wickham说过:

“plyr是一套处理一组问题的工具:需要把一个大的数据结构分解成一些均匀的数据块,之后对每一数据块应用一个函数,最后将所有结果组合在一起。”

对于Python而言,我希望有类似于plyr这样的数据包可供使用。然而,目前这样的数据包还不存在,但我可以使用并行数据包构成一个简单的解决方案

Dask

之前在Spark上花费了一些时间,因此当我开始使用Dask时,还是比较容易地掌握其重点内容。Dask被设计成能够在多核CPU上并行处理任务,此外也借鉴了许多Pandas的语法规则。

现在开始本文所举例子。对于最近的数据挑战而言,我试图获取一个外部数据源(包含许多地理编码点),并将其与要分析的一大堆街区相匹配。在计算欧几里得距离的同时,使用最大启发式将最大值分配给一个街区。

最初的apply:

my_df.apply(lambda x: nearest_street(x.lat,x.lon),axis=1)

Dask apply:

dd.from_pandas(my_df,npartitions=nCores).\map_partitions(\lambda df : df.apply(\lambda x : nearest_street(x.lat,x.lon),axis=1)).\compute(get=get)
# imports at the end

二者看起来很相似,apply核心语句是map_partitions,最后有一个compute()语句。此外,不得不对npartitions初始化。 分区的工作原理就是将Pandas数据帧划分成块,对于我的电脑而言,配置是6核-12线程,我只需告诉它使用的是12分区,Dask就会完成剩下的工作。

接下来,将map_partitions的lambda函数应用于每个分区。由于许多数据处理代码都是独立地运行,所以不必过多地担心这些操作的顺序问题。最后,compute()函数告诉Dask来处理剩余的事情,并把最终计算结果反馈给我。在这里,compute()调用Dask将apply适用于每个分区,并使其并行处理。

由于我通过迭代行来生成一个新队列(特征),而Dask apply只在列上起作用,因此我没有使用Dask apply,以下是Dask程序:

from dask import dataframe as dd
from dask.multiprocessing import get
from multiprocessing import cpu_count
nCores = cpu_count()

NumbaNumpyBroadcasting

由于我是根据一些简单的线性运算(基本上是勾股定理)对数据进行分类,所以认为使用类似下面的Python代码会运行得更快一些。

for i in intersections:l3 = np.sqrt( (i[0] - [1])**2 + (i[2] - i[3])**2 )
# ... Some more of thesedist = l1 + l2if dist < (l3 * 1.2):matches.append(dist)
# ... More stuff
### you get the idea, there's a for-loop checking to see if
### my points are close to my streets and then returning
closest
### I even used numpy, that means fast right?

Broadcasting用以描述Numpy中对两个形状不同的矩阵进行数学计算的处理机制。假设我有一个数组,我会通过迭代并逐个变换每个单元格来改变它

# over one array
for cell in array:cell * CONSTANT - CONSTANT2
# over two arrays
for i in range(len(array)):array[i] = array[i] + array2[i]

相反,我完全可以跳过for循环,并对整个数组执行操作。Numpy与broadcasting混合使用,用来执行元素智能乘积(对位相乘)。

# over one array
(array * CONSTANT) - CONSTANT2
# over two arrays of same length
# different lengths follow broadcasting rules
array = array - array2

Broadcasting可以实现更多的功能,现在看看骨架代码:

from numba import jit
@jit # numba magic
def some_func()l3_arr = np.sqrt( (intersections[:,0] -
intersections[:,1])**2 +\(intersections[:,2] -
intersections[:,3])**2 )
# now l3 is an array containing all of my block lengths
# likewise, l1 and l2 are now equal sized arrays
# containing distance of point to all intersectionsdist = l1_arr + l2_arrmatch_arr = dist < (l3_arr * 1.2)
# so instead of iterating, I just immediately compare all
of my
# point-to-street distances at once and have a handy
# boolean index

从本质上讲,代码的功能是改变数组。好的一方面是运行很快,甚至能和Dask并行处理速度比较。其次,如果使用的是最基本的Numpy和Python,那么就可以及时编译任何函数。坏的一面在于它只适合Numpy和简单Python语法。我不得不把所有的数值计算从我的函数转换成子函数,但其计算速度会增加得非常快。

将其一起使用

简单地使用map_partition()就可以将Numba函数与Dask结合在一起,如果并行操作和broadcasting能够密切合作以加快运行速度,那么对于大数据集而言,将会看到其运行速度得到大幅提升。

上面的第一张图表明,没有broadcasting的线性计算其表现不佳,并行处理和Dask对速度提升也有效果。此外,可以明显地发现,Dask和Numba组合的性能优于其它方法。

上面的第二张图稍微有些复杂,其横坐标是对行数取对数。从第二张图可以发现,对于1k到10k这样小的数据集,单独使用Numba的性能要比联合使用Numba+Dask的性能更好,尽管在大数据集上Numba+Dask的性能非常好。

优化

为了能够使用Numba编译JIT,我重写了函数以更好地利用broadcasting。之后,重新运行这些函数后发现,平均而言,对于相同的代码,JIT的执行速度大约快了24%。

可以肯定的说,一定有进一步的优化方法使得执行速度更快,但目前没有发现。Dask是一个非常友好的工具,本文使用Dask+Numba实现的最好成果是提升运行速度60倍。如果你知道其它的提升执行速度的技巧,欢迎在留言区分享。

文章原标题《Data Pre-Processing in Python: How I learned to love parallelized applies with Dask and Numba》,

作者:Ernest Kim,译者:海棠,审阅:袁虎。

原文链接

干货好文,请关注扫描以下二维码:

Python数据预处理:使用Dask和Numba并行化加速相关推荐

  1. python numba 转灰度图_Python数据预处理:Dask和Numba并行化加速!

    如果你善于使用Pandas变换数据.创建特征以及清洗数据等,那么你就能够轻松地使用Dask和Numba并行加速你的工作.单纯从速度上比较,Dask完胜Python,而Numba打败Dask,那么Num ...

  2. python 并行化 图像处理_Python数据预处理:使用Dask和Numba并行化加速

    如果你善于使用Pandas变换数据.创建特征以及清洗数据等,那么你就能够轻松地使用Dask和Numba并行加速你的工作.单纯从速度上比较,Dask完胜Python,而Numba打败Dask,那么Num ...

  3. python dask_Python数据预处理:使用Dask和Numba并行化加速

    如果你善于使用Pandas变换数据.创建特征以及清洗数据等,那么你就能够轻松地使用Dask和Numba并行加速你的工作.单纯从速度上比较,Dask完胜Python,而Numba打败Dask,那么Num ...

  4. python数据处理实例-Python数据预处理实例详解

    Python----数据预处理代码实例 本文实例为大家分享了Python数据预处理的具体代码,供大家参考,具体内容如下 1.导入标准库 import numpy as np import matplo ...

  5. Python数据预处理:机器学习、人工智能通用技术(1)

    1 什么是数据预处理 数据预处理简而言之就是将原始数据装进一个预处理的黑匣子之后,产生出高质量数据用来适应相关技术或者算法模型.为了大家更明确的了解数据预处理,我们举个新闻分类的例子: 将原始的数据直 ...

  6. [Python] 数据预处理(缺失值、异常值、重复值) [相关方法参数说明、代码示例、相关概念]

    前言 系列文章目录 [Python]目录 视频及资料和课件 链接:https://pan.baidu.com/s/1LCv_qyWslwB-MYw56fjbDg?pwd=1234 提取码:1234 文 ...

  7. Python数据预处理——格式转换及抽取数据文本信息

    课程地址:https://www.imooc.com/learn/1105 1. 数据预处理简介 1.1 什么是数据预处理 数据预处理简单来说就是:将原始数据装进一个预处理的黑匣子之后,产生出高质量数 ...

  8. 3行代码,Python数据预处理提速6倍

    在 Python 中,我们可以找到原生的并行化运算指令.本文可以教你仅使用 3 行代码,大大加快数据预处理的速度. Python 是机器学习领域内的首选编程语言,它易于使用,也有很多出色的库来帮助你更 ...

  9. 3行代码,Python数据预处理提速6倍!(附链接)

    来源:新智元 本文约2600字,建议阅读8分钟. 本文介绍了仅需3行代码,将Python数据处理速度提升2~6倍的简单方法. Python是所有机器学习的首选编程语言.它易于使用,并拥有许多很棒的库, ...

最新文章

  1. OpenSSH7.0兼容性测试报告
  2. Spring_boot_pom.xml和启动方式
  3. Spring实战之三:高级装配
  4. 如何系统学习机器学习?
  5. Java黑皮书课后题第3章:3.7(金融应用:整钱兑零)修改程序清单2-10,使之只显示非零的币值单位,用单词的单数形式显示一个单位,复数形式显示多于一个的单位的值
  6. vue 功能模块后台可配置_Github14k的Springboot后台管理系统
  7. 快排的c++实现(两种实现方式)
  8. [Unity2018.2]ShaderGraph更新详解
  9. Python版基于递归的冒泡排序算法
  10. winxp下安装虚拟机,并安装linux操作系统
  11. MySQL在windows系统中修改datadir路径后无法启动问题,报错1067
  12. 今天居然中了MSN病毒。
  13. 关于空间计量模型中自回归系数大于1的解释
  14. 微信小程序原生实现好看的日期选择插件-万年历
  15. 程序员自学成才-老程序员给新手的四条自学经验
  16. Internet网络行为学
  17. openpnp - configure - Connect the driver to your controller
  18. srand和rand函数使用
  19. Python数据结构与算法基础|第三期:代码实现——顺序存储队列与链式存储队列
  20. uni-app如何使用vant-ui的坑

热门文章

  1. 【LeetCode笔记】142. 环形链表 II(Java、快慢指针)
  2. mysql搜索标题及时间_mysql搜索标题,描述和多行标记
  3. android开发 视图联动_新版首页技术设计和实现方案(Android)
  4. int是不是python保留字_下面不属于Python保留字的是:
  5. matlab热度图确定色标_C++实现类似Matlab的colormap Jet(灰度图生成彩色热度图)
  6. python鼠标事件 详解_Python selenium键盘鼠标事件实现过程详解
  7. linux shell rman删除归档_我们一起学一学渗透测试——黑客应该掌握的Linux基础
  8. seata 如何开启tcc事物_分布式事务Seata-TCC源码分析
  9. mysql登录root 1130_通过Navicat for MySQL远程连接的时候报错mysql 1130的解决方法
  10. 回味颜宁演讲:“勇敢做独一无二的你”