六月 北京 | 高性能计算之GPU CUDA培训

6月22-24日三天密集式学习  快速带你入门阅读全文>

正文共1927个字,预计阅读时间10分钟。

前言

前段时间,我们对接算法的工程师哭丧的和我说,模型生成后一般都要部署成API的形态对外提供服务,但是算法工程师并没有提供如何将一条数据转化特征向量的方法,他能拿到的是代码逻辑以及一些“中间元数据”。数据预处理本来就复杂,翻译也是一件极其困难的事情。我解释了这件事情难以解决的原因,但是显然他还是有些失望。

今天的目标就是谈谈如何尝试改善这件事情。

解决方案

在我看来,之前业界已经给出解决方案了,就是pipeline,pipeline不仅仅包括数据特征化,还包括模型。Spark也是这么做的,但是其实应用并不广泛。原因有如下几个:

1、不同的框架pipeline模式不一样。比如Sklearn的pipeline并没不太容易用在工程团队上,毕竟大部分研发工程师都是用java/c++系的。

2、Spark 的pipeline 不适合API服务,因为他是为了批处理设计的,而不是为了响应时间。

知道原因后,解决方案就变得相对直观了:

1、用一种统一的语言描述pipeline,横跨数据处理框架和算法框架。

2、pipeline对单条数据处理必须能够在毫秒级,同时需要保持数据预处理离线训练和online预测/流预测的一致性。

用一种统一的语言描述pipeline

能做统一描述的其实是SQL,我们会将数据特征化流程也抽象成了算法训练,通过调参的方式干预特征处理,另外,我们尽可能的根据任务进行高级抽象而不是小功能点。这点很重要。比如:

 1-- 把文本字段转化为tf/idf向量,可以自定义词典 2train orginal_text_corpus as TfIdfInPlace.`/tmp/tfidfinplace` 3where inputCol="content" 4-- 分词相关配置 5and ignoreNature="true" 6-- 停用词路径 7and stopWordPath="/tmp/tfidf/stopwords" 8-- 高权重词路径 9and priorityDicPath="/tmp/tfidf/prioritywords"10-- 高权重词加权倍数11and priority="5.0"12and nGram="2,3"13;

我们将tf/idf特征化抽象成了一个算法,通过参数配置覆盖了如下的一些诉求:

  1. 分词(可以指定自定义词典)

  2. 过滤停用词

  3. ngram特征组合

  4. 字符转化为数字

  5. 计算idf/tf值

  6. 记在权重高的词汇,并且给对应特征加权。

如果是在训练阶段,我们直接加载模型的数据部分,从而让后续的算法可以继续进行处理。

使用方式如下:

1load parquet.`/tmp/tfidfinplace/data` 2as trainningdata;

我们也可能在其他的批处理或者流程序里去使用它预处理新的数据,这个时候我们需要
先注册一下:

1register TfIdfInPlace.`/tmp/tfidfinplace` as tfidf;

然后通过UDF函数的方式去使用即可:

1select tfidf(content) from hivetable;

如果你是部署成API服务,那么通过接口注册后,可以使用类似下面的http请求:

1curl -XPOST 'http://127.0.0.1:9003/model/predict' -d '2data=["你好,世界"] & 3dataType=string &4pipeline= tfidf,bayes

我这里额外添加了一个贝叶斯贝叶斯模型,这里pipeline的的调用相当于 bayes(tfidf("你好,世界")) 最后返回的是一个预测结果。

pipeline对单条数据处理必须能够在毫秒级

这个如何能做到呢?这就需要我们保存每个“数据处理模型”中间的元数据以及计算规则。比如以前面的TfIdfInPlace为例,他训练完成后会保存所有的训练参数,词空间,词和数字的映射等等。这样我们下次使用时就可以加载这些元数据,并且按特定的规则对新数据进行处理。

因为训练时的数据预处理和预测时的数据预处理本质是不同的,训练时的数据预处理只能针对批量数据,从中学习特征化的方式,而预测时的数据预处理更偏向于“利用训练时学到的经验仅仅进行计算”,这种天然不匹配带来的成本在于,你需要针对pipeline里的每个模型的预测部分(包括数据预处理和算法模型)进行重新的实现,而无法复用之前批训练时的逻辑。

对于MLSQL而言,它重新实现了大部分Spark mllib算法/数据处理模型的预测逻辑,增加了更多高阶的数据预处理模型,并且提供对tensorflow,sklearn,dl4j等框架的预测支持。

实际案例

目前StreamingPro已经实现了一个案例,比如下面的代码通过SVM和随机深林实现了一个文本分类,特征工程用的是TfIdfInPlace算法:

 1set traning_dir = "/tmp/lwys_corpus"; 2-- 加载数据 3load csv.`/Users/allwefantasy/Downloads/lwys_corpus` options header="true" and delimiter="\t" and quote="'" 4as lwys_corpus; 5select cut as features,cast(sid as int) as label from lwys_corpus 6as orginal_text_corpus; 7-- 把文本字段转化为tf/idf向量,可以自定义词典 8train orginal_text_corpus as TfIdfInPlace.`${traning_dir}/tfidf`  9where inputCol="features" 10-- 分词的字典路径,支持多个11and `dic.paths`="....."12-- 停用词路径13and stopWordPath="..."14-- 高权重词路径15and priorityDicPath="...."16-- 高权重词加权倍数17and priority="5.0"18;19load parquet.`${traning_dir}/tfidf/data` 20as lwys_corpus_with_featurize;21-- 把label转化为递增数字22train lwys_corpus_with_featurize StringIndex.`${traning_dir}/si` 23where inputCol="label";24register StringIndex.`${traning_dir}/si` as predict;25select predict(label) as label,features as features from lwys_corpus_with_featurize 26as lwys_corpus_final_format;27-- 切分训练集、验证集,该算法会保证每个分类都是按比例切分。28train lwys_corpus_final_format as RateSampler.`${traning_dir}/ratesampler` 29where labelCol="label"30and sampleRate="0.9,0.1";31load parquet.`${traning_dir}/ratesampler` as data2;32select * from data2 where __split__=133as validateTable;34select * from data2 where __split__=035as trainingTable;36-- 训练,可以配置多个模型同时进行训练37train trainingTable as SKLearn.`${traning_dir}/model`  38where `kafkaParam.bootstrap.servers`="127.0.0.1:9092"39and `kafkaParam.topic`="test"40and `kafkaParam.group_id`="g_test-1"41and  `fitParam.0.batchSize`="300"42and  `fitParam.0.labelSize`="41"43and  `fitParam.0.alg`="RandomForestClassifier"44and  `fitParam.1.batchSize`="300"45and  `fitParam.1.labelSize`="41"46and  `fitParam.1.alg`="SVM"47and validateTable="validateTable"48and `systemParam.pythonPath`="python"49and `systemParam.pythonVer`="2.7"50;

训练完成后,如果我想在流式/批处理里用,那么应该是这样的:

 1-- 注册特征处理模型 2register TfIdfInPlace.`${traning_dir}/tfidf`  as  3tfidf_compute; 4register StringIndex.`${traning_dir}/si` as label_convert; 5-- 注册算法模型 6register SKLearn.`${traning_dir}/model`   as predict_label; 7-- 对数据进行特征处理 8select  tfidf_compute(content) as feature  from  some-hive-table 9as newdata;10--对数据进行预测:11select label_convert_reverse(predict_label(feature)) as predict_catogory   from  newdata;

如果我们希望部署成一个API服务,首先启动一个MLSQL服务:

 1./bin/spark-submit   --class streaming.core.StreamingApp \ 2--master local[2] \ 3--name predict_service \ 4streamingpro-spark-2.0-1.0.0.jar    \ 5-streaming.name predict_service    \ 6-streaming.job.file.path file:///tmp/query.json \ 7-streaming.platform spark   \ 8-streaming.rest true   \ 9-streaming.driver.port 9003   \10-streaming.spark.service true \11-streaming.thrift false \12-streaming.enableHiveSupport true

访问 http://127.0.0.1:9003/run/script 接口动态注册已经生成的模型:

1-- 注册特征处理模型2register TfIdfInPlace.`${traning_dir}/tfidf`  as 3tfidf_compute;4register StringIndex.`${traning_dir}/si` as label_convert;5-- 注册算法模型6register SKLearn.`${traning_dir}/model`   as predict_label;

MLSQL可以注册MLSQL自身的一些数据处理模型,对于算法模型,则包含了spark mllib, tensorflow, sklearn,dl4j等流行框架。

访问http://127.0.0.1:9003/model/predict进行预测请求:

1curl -XPOST 'http://127.0.0.1:9003/model/predict' -d '2data=["你好,世界"] & 3dataType=string &4pipeline= tfidf_compute, predict_label, label_convert5'

这个时候,会分别调用tfidf_compute, predict_label, label_convert 三个模型处理传递过来的数据,完成最后的预测。可以简单理解为一个嵌套函数调用(实际上就是,

算法训练和模型部署如何避免多次重写数据预处理代码相关推荐

  1. YOLOV3 模型训练及模型部署(YOLO动态链接库的封装和调用)

    YOLOV3 模型训练及模型部署(YOLO动态链接库的封装和调用) 一. 配置环境 windows10 + VS2017 community cuda10.0.130_411.31 cunn-10.0 ...

  2. Python时间序列模型推理预测实战:时序推理数据预处理(特征生成、lstm输入结构组织)、模型加载、模型预测结果保存、条件判断模型循环运行

    Python时间序列模型推理预测实战:时序推理数据预处理(特征生成.lstm输入结构组织).模型加载.模型预测结果保存.条件判断模型循环运行 目录

  3. CV 加持的工业检测,从算法选型到模型部署

    随着AI技术的逐渐成熟,越来越多的传统企业希望借助AI技术,实现智能质检.传统质检更多依靠有经验的人工劳动力来实现质量检查甚至分拣,但这样的方式,许多场景会有检查效率低,审核质量不稳定,人力投入成本高 ...

  4. 机器学习教程 之 EM算法 :高斯混合模型聚类算法 (python基于《统计学习方法》实现,附数据集和代码)

    之前写过一篇博客讲述极大似然方法, 这一方法通常适用于知道观测数据 Y Y Y,求解模型参数 θ \theta θ的场合,即 P ( Y ∣ θ ) P(Y|\theta) P(Y∣θ). 但是,在更 ...

  5. 【机器学习算法专题(蓄力计划)】十一、特征数据预处理

    文章目录 离散值处理 标签处理 特征处理 scikit-learn 特征处理 scikit LabelEncoder scikit DictVectorizer scikit OneHotEncode ...

  6. 使用PaddleX实现车辆检测模型训练到服务化部署落地全流程

    ★★★ 本文源自AlStudio社区精品项目,[点击此处]查看更多精品内容 >>> 1. 项目背景 随着AI技术的快速发展,深度学习技术在各个领域的应用越来越广泛.作为一种革命性的机 ...

  7. 【Pytorch基础教程33】算法模型部署(MLFlow/ONNX/tf serving)

    内容概况 服务器上训练好模型后,需要将模型部署到线上,接受请求.完成推理并且返回结果. 保存模型结构和参数最简单的是torch.save保存为checkpoint,但一般用于训练时记录过程,训练中断可 ...

  8. 深度学习模型部署技术方案

    深度学习模型部署技术方案 训练好的深度学习模型如何进行部署的相关技术方案 1 什么是模型部署? 2 数据科学项目整个开发流程 3 使用flask 将 Keras深度学习模型部署为Web应用程序 4 T ...

  9. 机器学习模型部署的三种方法

    "企业机器学习需要从数据工程和数据平台的角度看待大局[...],"贾斯汀·诺曼(Justin Norman)在今年巴塞罗那的DataWorks峰会上关于机器学习模型的部署的演讲中说 ...

最新文章

  1. Python 标准库之 os (获取当前目录、读取/设置环境变量、重命名文件、运行shell命令、创建/删除/查看目录文件、判断目录/文件/存在、获取绝对路径、获取文件名、获取换行符、获取路径分隔符)
  2. 进程状态控制-进程的阻塞和唤醒
  3. Windows安装TensorFlow
  4. 多值参数-元组和字典的拆包
  5. 【ELK】之Kibana使用
  6. Cinchoo ETL-对大型CSV文件进行排序
  7. fastslam matlab,fastslam 快速定位和构图的源码,一个简单的例子,3D建模,可以用作学习智能机器人自主移动 matlab 272万源代码下载- www.pudn.com...
  8. 文本相似度计算--余弦定理和广义Jaccard系数
  9. Python金融数据挖掘 第11章 复习思考题2 (聚类)选取中华人民共和国第六次人口普查的各地区人口数以及男女比例进行K-Means聚类分析。
  10. 2022-2028年中国美妆工具行业市场前瞻与投资战略规划分析报告
  11. 工业相机软件参数介绍
  12. 浅谈RRU、FPGA、ORAN
  13. Windows的权限(用户、组和访问控制)
  14. 基于Maven的Springboot+Mybatis+Druid+Swagger2+mybatis-generator框架环境搭建
  15. 灰色页面,HTML灰色页面
  16. js实现表格的增添和删除操作
  17. python基础练习3(学python的多多少少听说过)
  18. 女生学大数据好找工作么
  19. SumperMap基本编程
  20. 邵阳市计算机学校校长陈公良,邵阳市计算机学校举行“校园杯”主题演讲比赛...

热门文章

  1. linux qq多进程客户端,基于多进程QQ聊天软件设计.doc
  2. pic单片机内部时钟校准c语言,PIC系列单片机片内定时器实时时钟的实现(转)
  3. php 读写远程文件内容,php获取远程文件内容的函数
  4. ssh解决root_unlock_time问题
  5. phpzend框架_PHP开源开发框架ZendFramework使用中常见问题说明及解决方案
  6. 鼠标方式自动弹出内容html,html 在一个超链接上面,鼠标移动上去时,也显示一串文字,如何实现...
  7. HTTP----HTTP2.0新特性
  8. 可见性、原子性和有序性问题
  9. 利用属性观察器实现数据绑定
  10. 洛谷P3389 【模板】高斯消元法