数据科学家需要算力。无论您是用 pandas 处理一个大数据集,还是用 Numpy 在一个大矩阵上运行一些计算,您都需要一台强大的机器,以便在合理的时间内完成这项工作。

在过去的几年中,数据科学家常用的 Python 库已经非常擅长利用 CPU 能力。

Pandas 的基础代码是用 C 语言编写的,它可以很好地处理大小超过 100GB 的数据集。如果您没有足够的 RAM 来容纳这样的数据集,那么您可以使用分块功能,它很方便,可以一次处理一个数据块。

GPUs vs CPUs:并行处理

有了大量的数据,CPU 就不会切断它了。

一个超过 100GB 的数据集将有许多数据点,数据点的数值在数百万甚至数十亿的范围内。有了这么多的数据点要处理,不管你的 CPU 有多快,它都没有足够的内核来进行有效的并行处理。如果你的 CPU 有 20 个内核(这将是相当昂贵的 CPU),你一次只能处理 20 个数据点!

CPU 在时钟频率更重要的任务中会更好——或者根本没有 GPU 实现。如果你尝试执行的流程有一个 GPU 实现,且该任务可以从并行处理中受益,那么 GPU 将更加有效。

多核系统如何更快地处理数据。对于单核系统(左),所有 10 个任务都转到一个节点。对于双核系统(右),每个节点承担 5 个任务,从而使处理速度加倍

深度学习已经在利用 GPU 方面发挥了相当大的作用。许多在深度学习中完成的卷积操作是重复的,因此在 GPU 上可以大大加速,甚至可以达到 100 次。

今天的数据科学没有什么不同,因为许多重复的操作都是在大数据集上执行的,库中有 pandas、Numpy 和 scikit-learn。这些操作也不太复杂,无法在 GPU 上实现。

最后,还有一个解决方案。

用 Rapids 加速 GPU

Rapids 是一套软件库,旨在利用 GPU 加速数据科学。它使用低级别的 CUDA 代码实现快速的、GPU 优化的算法,同时它上面还有一个易于使用的 Python 层。

Rapids 的美妙之处在于它与数据科学库的集成非常顺利,比如 pandas 数据帧就很容易通过 Rapids 实现 GPU 加速。下图说明了 Rapids 如何在保持顶层易用性的同时实现低层的加速。

Rapids 利用了几个 Python 库:

  • cuDF-Python GPU 数据帧。它几乎可以做 pandas 在数据处理和操作方面所能做的一切。

  • cuML-cuGraph 机器学习库。它包含了 Scikit-Learn 拥有的许多 ML 算法,所有算法的格式都非常相似。

  • cuGraph-cuGraph 图处理库。它包含许多常见的图分析算法,包括 PageRank 和各种相似性度量。

如何使用 Rapids

安装

现在你将看到如何使用 Rapids!

要安装它,请访问这个网站,在这里你将看到如何安装 Rapids。你可以通过 Conda 将其直接安装到你的机器上,或者简单地使用 Docker 容器。

安装时,可以设置系统规范,如 CUDA 版本和要安装的库。例如,我有 CUDA 10.0,想要安装所有库,所以我的安装命令是:

conda install -c nvidia -c rapidsai -c numba -c conda-forge -c pytorch -c defaults cudf=0.8 cuml=0.8 cugraph=0.8 python=3.6 cudatoolkit=10.0

一旦命令完成运行,就可以开始用 GPU 加速数据科学了。

设置我们的数据

对于本教程,我们将介绍 DBSCAN demo 的修改版本。我将使用 Nvidia 数据科学工作站和 2 个 GPU 运行这个测试。

DBSCAN 是一种基于密度的聚类算法,可以自动对数据进行分类,而无需用户指定有多少组数据。在 Scikit-Learn 中有它的实现。

我们将从获取所有导入设置开始。先导入用于加载数据、可视化数据和应用 ML 模型的库。

import os

import matplotlib.pyplot as plt

from matplotlib.colors import ListedColormap

from sklearn.datasets import make_circles

make_circles 函数将自动创建一个复杂的数据分布,类似于我们将应用于 DBSCAN 的两个圆。

让我们从创建 100000 点的数据集开始,并在图中可视化:

X, y = make_circles(n_samples=int(1e5), factor=.35, noise=.05)

X[:, 0] = 3*X[:, 0]

X[:, 1] = 3*X[:, 1]

plt.scatter(X[:, 0], X[:, 1])

plt.show()

CPU 上的 DBSCAN

使用 Scikit-Learn 在 CPU 上运行 DBSCAN 很容易。我们将导入我们的算法并设置一些参数。

from sklearn.cluster import DBSCAN

db = DBSCAN(eps=0.6, min_samples=2)

我们现在可以通过调用 Scikit-Learn 中的一个函数对循环数据使用 DBSCAN。在函数前面加上一个「%」,就可以让 Jupyter Notebook 测量它的运行时间。

%%time

y_db = db.fit_predict(X)

这 10 万个点的运行时间是 8.31 秒,如下图所示:

使用 Scikit-Learn 在 CPU 上运行 DBSCAN 的结果

GPU 上带 Rapids 的 DBSCAN

现在,让我们用 Rapids 进行加速!

首先,我们将把数据转换为 pandas.DataFrame 并使用它创建一个 cudf.DataFrame。pandas.DataFrame 无缝转换成 cudf.DataFrame,数据格式无任何更改。

import pandas as pd

import cudf

X_df = pd.DataFrame({'fea%d'%i: X[:, i] for i in range(X.shape[1])})

X_gpu = cudf.DataFrame.from_pandas(X_df)

然后我们将从 cuML 导入并初始化一个特殊版本的 DBSCAN,它是 GPU 加速的版本。DBSCAN 的 cuML 版本的函数格式与 Scikit-Learn 的函数格式完全相同:相同的参数、相同的样式、相同的函数。

from cuml import DBSCAN as cumlDBSCAN

db_gpu = cumlDBSCAN(eps=0.6, min_samples=2)

最后,我们可以在测量运行时间的同时运行 GPU DBSCAN 的预测函数。

%%time

y_db_gpu = db_gpu.fit_predict(X_gpu)

GPU 版本的运行时间为 4.22 秒,几乎加速了 2 倍。由于我们使用的是相同的算法,因此结果图也与 CPU 版本完全相同。

使用 cuML 在 GPU 上运行 DBSCAN 的结果

使用 Rapids GPU 获得超高速

我们从 Rapids 获得的加速量取决于我们正在处理的数据量。一个好的经验法则是,较大的数据集将更加受益于 GPU 加速。在 CPU 和 GPU 之间传输数据有一些开销时间——对于较大的数据集,开销时间变得更「值得」。

我们可以用一个简单的例子来说明这一点。

我们将创建一个随机数的 Numpy 数组并对其应用 DBSCAN。我们将比较常规 CPU DBSCAN 和 cuML 的 GPU 版本的速度,同时增加和减少数据点的数量,以了解它如何影响我们的运行时间。

下面的代码说明如何进行测试:

import numpy as np

n_rows, n_cols = 10000, 100

X = np.random.rand(n_rows, n_cols)

print(X.shape)

X_df = pd.DataFrame({'fea%d'%i: X[:, i] for i in range(X.shape[1])})

X_gpu = cudf.DataFrame.from_pandas(X_df)

db = DBSCAN(eps=3, min_samples=2)

db_gpu = cumlDBSCAN(eps=3, min_samples=2)

%%time

y_db = db.fit_predict(X)

%%time

y_db_gpu = db_gpu.fit_predict(X_gpu)

检查下面的 Matplotlib 结果图:

当使用 GPU 而不是 CPU 时,数量会急剧增加。即使在 10000 点(最左边),我们的速度仍然是 4.54x。在更高的一端,1 千万点,我们切换到 GPU 时的速度是 88.04x!

如何在 GPU 上加速数据科学相关推荐

  1. GPU—加速数据科学工作流程

    GPU-加速数据科学工作流程 GPU-ACCELERATE YOUR DATA SCIENCE WORKFLOWS 传统上,数据科学工作流程是缓慢而繁琐的,依赖于cpu来加载.过滤和操作数据,训练和部 ...

  2. 「直播回顾」Mars:加速数据科学的新方式

    简介: 本文从数据科学概念.背景和现状切入,引出加速数据科学的新方式Mars,并介绍了Mars具体能解决的一些问题和背后的逻辑.哲学,同时对Mars整体数据处理流程进行了介绍. 本文分为4个部分: M ...

  3. Mars:加速数据科学的新方式

    本文分为4个部分: Mars的背景和现状 Mars解决了什么问题 Mars背后的哲学 总结与展望 一.Mars的背景和现状 说到加速数据科学的新方式,就不得不说什么是数据科学,以下是维基的定义: 数据 ...

  4. 如何在 GPU 上优化卷积

    如何在 GPU 上优化卷积 将演示如何在 TVM 中编写高性能卷积实现.正方形大小的输入张量和过滤器为例,假设卷积的输入具有大batch批量.在这个例子中,使用不同的布局存储数据,实现更好的数据局部性 ...

  5. 如何在GPU上优化卷积

    如何在GPU上优化卷积 本文将演示如何在TVM中编写高性能的卷积实现.以平方大小的输入张量和滤波器为例,并假设卷积的输入量很大.使用不同的布局来存储数据,以实现更好的数据局部性.缓冲区布局为HWCN, ...

  6. 当 Mars 遇上 RAPIDS:用 GPU 以并行的方式加速数据科学

    背景 在数据科学世界,Python 是一个不可忽视的存在,且有愈演愈烈之势.而其中主要的使用工具,包括 Numpy.Pandas 和 Scikit-learn 等. Numpy Numpy 是数值计算 ...

  7. 超越EfficientNet,GPU上加速5倍,何恺明组CVPR 2020论文提出新型网络设计范式

    选自arXiv 作者:Ilija Radosavovic等 机器之心编译 机器之心编辑部 近日,何恺明大神组又发了一篇新论文,提出了一种新的网络设计范式.与以往研究不同,他们没有专注于设计单个网络实例 ...

  8. GPU 加速数据科学乘风破浪

    声明:版权归作者所有,如需使用请联系丽台科技. 点击"阅读原文",了解更多精彩内容

  9. 如何在GPU上产生随机数

    随机数在CPU中可以有rand()这类函数,但是GPU中却没有.如果想直接在GPU中使用随机数?有一个折中的方法,先再CPU中产生一个随机数数组,然后写入一个texture1D中.最后再利用GPU来提 ...

最新文章

  1. [ZJOI2007]棋盘制作 报表统计 矩阵游戏 时态同步
  2. 数据结构 稀疏矩阵的实现方法
  3. CentOS7查看开放端口命令
  4. node.js开发中使用Node Supervisor实现监测文件修改并自动重启应用(转)
  5. 2021级C语言大作业 - 消灭星星
  6. c语言函数指针学习心得,c语言 函数指针 学习C语言笔记
  7. Windows8 商店支付功能
  8. 漫画 | 强化学习这都学不会的话,咳咳,你过来下!
  9. [转]tar 命令使用
  10. Intel BIGDL 探索
  11. PHP获取产量地址,得到与PHP服务器RAM(get server ram with php)
  12. 蓝桥杯真题:乘积尾零
  13. php 活动报名,活动报名小程序 - 微信小程版的活动在线报名,支持付费活动发布! – 基于ThinkPHP和Bootstrap的极速后台开发框架...
  14. VAX插件、vs2012
  15. python偏最小二乘法公式_最小二乘法及其python实现详解
  16. 训练深度学习模型时电脑自动重启
  17. 万恶淫为首,你想知道的真相!
  18. 人工智能导论 第二章 搜索技术
  19. 基于Robopeak触摸屏和官方摄像头的树莓派照相机
  20. TypeScript深度剖析:Vue项目中应用TypeScript?

热门文章

  1. 将文件转为stream流_NIO之文件IO
  2. 剑指 Offer 34. 二叉树中和为某一值的路径【附完整可运行代码】
  3. Android 自动向上滚动,android – Recyclerview在插入数据时自动向上滚动
  4. vue 安装php,vue中使用openinstall
  5. 搭建MySQL+MHA服务易错位置
  6. Linux磁盘管理与文件系统(实验详解,一看就懂)
  7. 易语言 设置屏幕刷新率 源码_DxOMark新推出手机屏幕素质测试
  8. echarts tab切换_Python 数据可视化实战:使用 PyQt5 和 Echarts 打造股票数据看板
  9. 如何得出数组里最大_相邻两数的最大差值(超巧妙解法)
  10. 在php中页面布局 3列左右侧固定中间自适应居中,css三列布局--两边固定中间自适应和中间固定两边自适应...