来源:DeepHub IMBA
本文约2900字,建议阅读5分钟
在进行数据科学时,可能会浪费大量时间编码并等待计算机运行某些东西。所以我选择了一些 Python 库,可以帮助你节省宝贵的时间。

1、Optuna

Optuna 是一个开源的超参数优化框架,它可以自动为机器学习模型找到最佳超参数。

最基本的(也可能是众所周知的)替代方案是 sklearn 的 GridSearchCV,它将尝试多种超参数组合并根据交叉验证选择最佳组合。

GridSearchCV 将在先前定义的空间内尝试组合。例如,对于随机森林分类器,可能想要测试几个不同的树的最大深度。GridSearchCV 会提供每个超参数的所有可能值,并查看所有组合。

Optuna会在定义的搜索空间中使用自己尝试的历史来确定接下来要尝试的值。它使用的方法是一种称为“Tree-structured Parzen Estimator”的贝叶斯优化算法。

这种不同的方法意味着它不是无意义的地尝试每一个值,而是在尝试之前寻找最佳候选者,这样可以节省时间,否则这些时间会花在尝试没有希望的替代品上(并且可能也会产生更好的结果)。

最后,它与框架无关,这意味着您可以将它与 TensorFlow、Keras、PyTorch 或任何其他 ML 框架一起使用。

2、ITMO_FS

ITMO_FS 是一个特征选择库,它可以为 ML 模型进行特征选择。拥有的观察值越少,就越需要谨慎处理过多的特征,以避免过度拟合。所谓“谨慎”意思是应该规范你的模型。通常一个更简单的模型(更少的特征),更容易理解和解释。

ITMO_FS 算法分为 6 个不同的类别:监督过滤器、无监督过滤器、包装器、混合、嵌入式、集成(尽管它主要关注监督过滤器)。

“监督过滤器”算法的一个简单示例是根据特征与目标变量的相关性来选择特征。“backward selection”,可以尝试逐个删除特征,并确认这些特征如何影响模型预测能力。

这是一个关于如何使用 ITMO_FS 及其对模型分数的影响的普通示例:

>>> from sklearn.linear_model import SGDClassifier
>>> from ITMO_FS.embedded import MOS>>> X, y = make_classification(n_samples=300, n_features=10, random_state=0, n_informative=2)
>>> sel = MOS()
>>> trX = sel.fit_transform(X, y, smote=False)>>> cl1 = SGDClassifier()
>>> cl1.fit(X, y)
>>> cl1.score(X, y)
0.9033333333333333>>> cl2 = SGDClassifier()
>>> cl2.fit(trX, y)
>>> cl2.score(trX, y)
0.9433333333333334

ITMO_FS是一个相对较新的库,因此它仍然有点不稳定,但我仍然建议尝试一下。

3、shap-hypetune

到目前为止,我们已经看到了用于特征选择和超参数调整的库,但为什么不能同时使用两者呢?这就是 shap-hypetune 的作用。

让我们从了解什么是“SHAP”开始:

“SHAP(SHapley Additive exPlanations)是一种博弈论方法,用于解释任何机器学习模型的输出。”

SHAP 是用于解释模型的最广泛使用的库之一,它通过产生每个特征对模型最终预测的重要性来工作。

另一方面,shap-hypertune 受益于这种方法来选择最佳特征,同时也选择最佳超参数。你为什么要合并在一起?因为没有考虑它们之间的相互作用,独立地选择特征和调整超参数可能会导致次优选择。同时执行这两项不仅考虑到了这一点,而且还节省了一些编码时间(尽管由于搜索空间的增加可能会增加运行时间)。

搜索可以通过 3 种方式完成:网格搜索、随机搜索或贝叶斯搜索(另外,它可以并行化)。

但是,shap-hypertune 仅适用于梯度提升模型!

4、PyCaret

PyCaret 是一个开源、低代码的机器学习库,可自动执行机器学习工作流。它涵盖探索性数据分析、预处理、建模(包括可解释性)和 MLOps。

让我们看看他们网站上的一些实际示例,看看它是如何工作的:

# load dataset
from pycaret.datasets import get_data
diabetes = get_data('diabetes')# init setup
from pycaret.classification import *
clf1 = setup(data = diabetes, target = 'Class variable')# compare models
best = compare_models()

只需几行代码,就可以尝试多个模型,并在整个主要分类指标中对它们进行了比较。

它还允许创建一个基本的应用程序来与模型进行交互:

from pycaret.datasets import get_data
juice = get_data('juice')
from pycaret.classification import *
exp_name = setup(data = juice, target = 'Purchase')
lr = create_model('lr')
create_app(lr)

最后,可以轻松地为模型创建 API 和 Docker 文件:

from pycaret.datasets import get_data
juice = get_data('juice')
from pycaret.classification import *
exp_name = setup(data = juice, target = 'Purchase')
lr = create_model('lr')
create_api(lr, 'lr_api')
create_docker('lr_api')

没有比这更容易的了,对吧?

PyCaret是一个非常完整的库,在这里很难涵盖所有内容,建议你现在下载并开始使用它来了解一些 其在实践中的能力。

5、floWeaver

FloWeaver 可以从流数据集中生成桑基图。如果你不知道什么是桑基图,这里有一个例子:

在显示转化漏斗、营销旅程或预算分配的数据时,它们非常有用(上例)。入口数据应采用以下格式:“源 x 目标 x 值”,只需一行代码即可创建此类图(非常具体,但也非常直观)。

6、Gradio

如果你阅读过敏捷数据科学,就会知道拥有一个让最终用户从项目开始就与数据进行交互的前端界面是多么有帮助。一般情况下在Python中最常用是 Flask,但它对初学者不太友好,它需要多个文件和一些 html、css 等知识。

Gradio 允许您通过设置输入类型(文本、复选框等)、功能和输出来创建简单的界面。尽管它似乎不如 Flask 可定制,但它更直观。

由于 Gradio 现在已经加入 Huggingface,可以在互联网上永久托管 Gradio 模型,而且是免费的!

7、Terality

理解 Terality 的最佳方式是将其视为“Pandas ,但速度更快”。这并不意味着完全替换 pandas 并且必须重新学习如何使用df:Terality 与 Pandas 具有完全相同的语法。实际上,他们甚至建议“import Terality as pd”,并继续按照以前的习惯的方式进行编码。

它快多少?他们的网站有时会说它快 30 倍,有时快 10 到 100 倍。

另一个重要是 Terality 允许并行化并且它不在本地运行,这意味着您的 8GB RAM 笔记本电脑将不会再出现 MemoryErrors!

但它在背后是如何运作的呢?理解 Terality 的一个很好的比喻是可以认为他们在本地使用的 Pandas 兼容的语法并编译成 Spark 的计算操作,使用Spark进行后端的计算。所以计算不是在本地运行,而是将计算任务提交到了他们的平台上。

那有什么问题呢?每月最多只能免费处理 1TB 的数据。如果需要更多则必须每月至少支付 49 美元。1TB/月对于测试工具和个人项目可能绰绰有余,但如果你需要它来实际公司使用,肯定是要付费的。

8、torch-handle

如果你是Pytorch的使用者,可以试试这个库。

torchhandle是一个PyTorch的辅助框架。它将PyTorch繁琐和重复的训练代码抽象出来,使得数据科学家们能够将精力放在数据处理、创建模型和参数优化,而不是编写重复的训练循环代码。使用torchhandle,可以让你的代码更加简洁易读,让你的开发任务更加高效。

torchhandle将Pytorch的训练和推理过程进行了抽象整理和提取,只要使用几行代码就可以实现PyTorch的深度学习管道。并可以生成完整训练报告,还可以集成tensorboard进行可视化。

from collections import OrderedDict
import torch
from torchhandle.workflow import BaseContextclass Net(torch.nn.Module):def __init__(self, ):super().__init__()self.layer = torch.nn.Sequential(OrderedDict([('l1', torch.nn.Linear(10, 20)),('a1', torch.nn.ReLU()),('l2', torch.nn.Linear(20, 10)),('a2', torch.nn.ReLU()),('l3', torch.nn.Linear(10, 1))]))def forward(self, x):x = self.layer(x)return xnum_samples, num_features = int(1e4), int(1e1)
X, Y = torch.rand(num_samples, num_features), torch.rand(num_samples)
dataset = torch.utils.data.TensorDataset(X, Y)
trn_loader = torch.utils.data.DataLoader(dataset, batch_size=64, num_workers=0, shuffle=True)
loaders = {"train": trn_loader, "valid": trn_loader}
device = 'cuda' if torch.cuda.is_available() else 'cpu'model = {"fn": Net}
criterion = {"fn": torch.nn.MSELoss}
optimizer = {"fn": torch.optim.Adam,"args": {"lr": 0.1},"params": {"layer.l1.weight": {"lr": 0.01},"layer.l1.bias": {"lr": 0.02}}}
scheduler = {"fn": torch.optim.lr_scheduler.StepLR,"args": {"step_size": 2, "gamma": 0.9}}c = BaseContext(model=model,criterion=criterion,optimizer=optimizer,scheduler=scheduler,context_tag="ex01")
train = c.make_train_session(device, dataloader=loaders)
train.train(epochs=10)

定义一个模型,设置数据集,配置优化器、损失函数就可以自动训练了,是不是和TF差不多了。

编辑:王菁

8个可以提高数据科学工作效率、节省宝贵时间的Python库相关推荐

  1. 8个可以提高数据科学工作效率并节省宝贵时间的Python库

    在进行数据科学时,可能会浪费大量时间编码并等待计算机运行某些东西. 所以我选择了一些 Python 库,可以帮助你节省宝贵的时间. 1.Optuna Optuna 是一个开源的超参数优化框架,它可以自 ...

  2. 提高数据科学工作效率的 8 个Python库!

    来源丨数据STUDIO 在进行数据科学时,可能会浪费大量时间编码并等待计算机运行某些东西.所以我选择了一些 Python 库,可以帮助你节省宝贵的时间. 1.Optuna Optuna 是一个开源的超 ...

  3. GPU—加速数据科学工作流程

    GPU-加速数据科学工作流程 GPU-ACCELERATE YOUR DATA SCIENCE WORKFLOWS 传统上,数据科学工作流程是缓慢而繁琐的,依赖于cpu来加载.过滤和操作数据,训练和部 ...

  4. 数据科学工作中存在的7大问题与解决方案

    注:在本文中,虽然我使用数据科学家一词,但是诸如机器学习工程师,数据分析师,数据工程师,BI分析师之类的热门职务也承担着类似的责任,可以在此处互换使用. 本文编译自Dan_Friedman的技术博客. ...

  5. 如何利用OUTLOOK提高你的工作效率

    如何利用outlook提供你的工作效率 现在公司的办公已经离不开电子邮件了,怎么利用OUTLOOK的一些功能来帮助我们提高自己的工作效率.下面谈几点自己的使用感受: 第一 OUTLOOK里有日历功能, ...

  6. 优麒麟这款工具,助你提高60%的工作效率

    你是不是经常感觉每天都在加班但是活却一直干不完?同样的工作,别人1小时能完成,你可能需要用上三倍的时间?为了改掉拖延症,防止时间浪费,小编今天要告诉你如何利用优麒麟自带的闹钟工具,迅速提高自己的工作效 ...

  7. Acrel-3000电能管理系统保证企业生产人员的生命安全,提高生产人员的工作效率

    Acrel-3000电能管理系统在浙江某铝塑业有限公司的应用 安科瑞 崔远航 [摘要]:在我国的能源消耗中,工业是我国能源消耗的大户,能源消耗量占全国能源消耗总量的70%左右,而不同类型工业企业的工艺 ...

  8. 好消息轮询_在大流行中寻找数据科学工作而不是好消息

    好消息轮询 There's good news if you've been thinking of getting into the field of data science or have be ...

  9. WIN10:提高生产力与工作效率实用软件推荐

    作为一名研究僧,本文旨在分享自己在科研期间经常使用的提高生产力与工作效率实用软件,实测可以提高不少生产力与效率,节约自身的宝贵时间,并且分享自己在使用时碰到的各种问题解决方法与小技巧分享. (注:部分 ...

最新文章

  1. phpcms v9整合Ueditor
  2. WebService、WCF、WebAPI、MVC的区别
  3. Geany编辑器怎么使中文不报错?
  4. Widget创建过程(将RemoteViews发给WidgetHost)
  5. php获取标准输入输出,shell--标准输入输出(readamp;echo)
  6. Shell else if mysql_Shell if else语句(详解版)
  7. linux 常用 启动命令 汇总
  8. linux的基础知识——raise函数,abort函数和定时函数
  9. SSM框架整合druid查看监控数据
  10. SQLPLUS 使用的一些技巧
  11. bootstrapV4.6.0 图片宫格布局(案例篇)
  12. Web前端工程师,互联网行业,炙手可热的翘楚!
  13. 12.allegro环境设置[原创]
  14. 股价/期货等时间序列数据的整合检验、Grach建模
  15. yii2设置session时间_YII2 设置session过期时间
  16. html5用本地存储做留言板,带有本地存储功能的留言板js代码
  17. ef常见面试题_C#基本面试题
  18. 《货币金融学》米什金版思维导图
  19. 嵌入式系统(五):GPIO(输入输出端口扩展器)接口
  20. 从零开始写高性能的人脸识别服务器(一)

热门文章

  1. c语言温度查表程序,温度计C语言程序.doc
  2. 366万常用的中 txt 网盘_推荐三款我常用于备份文件的网盘,堪称精品中的精品,建议收藏!...
  3. spring aop 之链式调用
  4. mysql8.0 zip安装教程
  5. 使用Angular CLI从蓝本生成代码
  6. Symfony笔记之--控制器的快捷方法
  7. spring的依赖注入方式详解
  8. Lock/Unlock Account - Active Directory
  9. 看我用汉语编程(汉语Visual Basic编程软件发布)
  10. 【代码保留】表删除/重命名(含中文与空格)