pytorch checkpoint_pytorch的两种部署方式 web部署与c++部署
知乎地址: https://zhuanlan.zhihu.com/c_1101089619118026752
作者: 小哲
github: https://github.com/lxztju/notes
微信公众号: 小哲AI
近期看到了一篇威信公众号推送,研究了一下这两种pytorch模型的部署方式,一种为web部署,一种是c++部署
完整代码:
https://github.com/lxztju/pytorch_classification/tree/master/deployment
1. web部署
1. Redis安装,配置
2. server端
3. Redis服务器端
4. 调用测试
2. c++模型部署
1. 安装libtorch
2. 将模型转换为torch脚本
3. torch脚本序列化为文件
4. 在c++中调用模型
一个问题
1. web部署
web部署就是采用REST API的形式进行接口调用。
web部署的方式采用flask+ redis的方法进行模型部署,pytorch为模型的框架,flask为后端框架,redis是采用键值的形式存储图像的数据库。
各package包的版本:
pytorch 1.2.0flask 1.0.2 Redis 3.0.6
1. Redis安装,配置
ubuntu Redis的安装,下载地址:https://redis.io/download
安装教程: https://www.jianshu.com/p/bc84b2b71c1c
wget http://download.redis.io/releases/redis-6.0.6.tar.gz# 拷贝到/usr/local目录下cp redis-3.0.0.rar.gz /usr/local# 解压tar xzf redis-6.0.6.tar.gzcd /usr/local/redis-6.0.6# 安装至指定的目录下make PREFIX=/usr/local/redis install
Redis配置:
# redis.conf是redis的配置文件,redis.conf在redis源码目录。# 拷贝配置文件到安装目录下# 进入源码目录,里面有一份配置文件 redis.conf,然后将其拷贝到安装路径下cd /usr/local/rediscp /usr/local/redis-3.0.0/redis.conf /usr/local/redis/bin
此时在/usr/local/redis/bin目录下,有如下文件:
redis-benchmark redis性能测试工具redis-check-aof AOF文件修复工具redis-check-rdb RDB文件修复工具redis-cli redis命令行客户端redis.conf redis配置文件redis-sentinal redis集群管理工具redis-server redis服务进程
Redis服务开启:
# 这是以前端方式启动,关闭终端,服务停止./redis-server# 后台方式启动#修改redis.conf配置文件, daemonize yes 以后端模式启动cd /usr/local/redis./bin/redis-server ./redis.conf
连接Redis
/usr/local/redis/bin/redis-cli
关闭Redis
cd /usr/local/redis./bin/redis-cli shutdown
强行中止Redis,(可能会丢失持久化数据)
pkill redis-server
2. server端
@app.route('/predict', methods=['POST'])def predict(): data = {'Success': False} if request.files.get('image'): now = time.strftime("%Y-%m-%d-%H_%M_%S",time.localtime(time.time())) image = request.files['image'].read() image = Image.open(io.BytesIO(image)) image = image_transform(InputSize)(image).numpy() # 将数组以C语言存储顺序存储 image = image.copy(order="C") # 生成图像ID k = str(uuid.uuid4()) d = {"id": k, "image": base64_encode_image(image)} # print(d) db.rpush(ImageQueue, json.dumps(d)) # 运行服务 while True: # 获取输出结果 output = db.get(k) # print(output) if output is not None: output = output.decode("utf-8") data["predictions"] = json.loads(output) db.delete(k) break time.sleep(ClientSleep) data["success"] = True return jsonify(data)if __name__ == '__main__': app.run(host='127.0.0.1', port =5000,debug=True )
3. Redis服务器端
def classify_process(filepath): # 导入模型 print("* Loading model...") model = load_checkpoint(filepath) print("* Model loaded") while True: # 从数据库中创建预测图像队列 queue = db.lrange(ImageQueue, 0, BatchSize - 1) imageIDs = [] batch = None # 遍历队列 for q in queue: # 获取队列中的图像并反序列化解码 q = json.loads(q.decode("utf-8")) image = base64_decode_image(q["image"], ImageType, (1, InputSize[0], InputSize[1], Channel)) # 检查batch列表是否为空 if batch is None: batch = image # 合并batch else: batch = np.vstack([batch, image]) # 更新图像ID imageIDs.append(q["id"]) # print(imageIDs) if len(imageIDs) > 0: print("* Batch size: {}".format(batch.shape)) preds = model(torch.from_numpy(batch.transpose([0, 3,1,2]))) results = decode_predictions(preds) # 遍历图像ID和预测结果并打印 for (imageID, resultSet) in zip(imageIDs, results): # initialize the list of output predictions output = [] # loop over the results and add them to the list of # output predictions print(resultSet) for label in resultSet: prob = label.item() r = {"label": label.item(), "probability": float(prob)} output.append(r) # 保存结果到数据库 db.set(imageID, json.dumps(output)) # 从队列中删除已预测过的图像 db.ltrim(ImageQueue, len(imageIDs), -1) time.sleep(ServeSleep)def load_checkpoint(filepath): checkpoint = torch.load(filepath, map_location='cpu') model = checkpoint['model'] # 提取网络结构 model.load_state_dict(checkpoint['model_state_dict']) # 加载网络权重参数 for parameter in model.parameters(): parameter.requires_grad = False model.eval() return modelif __name__ == '__main__': filepath = '../c/resnext101_32x8.pth' classify_process(filepath)
4. 调用测试
curl -X POST -F image=@test.jpg 'http://127.0.0.1:5000/predict'
from threading import Threadimport requestsimport time# 请求的URLREST_API_URL = "http://127.0.0.1:5000/predict"# 测试图片IMAGE_PATH = "./test.jpg"# 并发数NUM_REQUESTS = 500# 请求间隔SLEEP_COUNT = 0.05def call_predict_endpoint(n): # 上传图像 image = open(IMAGE_PATH, "rb").read() payload = {"image": image} # 提交请求 r = requests.post(REST_API_URL, files=payload).json() # 确认请求是否成功 if r["success"]: print("[INFO] thread {} OK".format(n)) else: print("[INFO] thread {} FAILED".format(n))# 多线程进行for i in range(0, NUM_REQUESTS): # 创建线程来调用api t = Thread(target=call_predict_endpoint, args=(i,)) t.daemon = True t.start() time.sleep(SLEEP_COUNT)time.sleep(300)
2. c++模型部署
教程:https://pytorch.apachecn.org/docs/1.2/beginner/Intro_to_TorchScript_tutorial.html
利用TorchScript进行模型c++部署,
业界与学术界最大的区别在于工业界的模型需要落地部署,学界更多的是关心模型的精度要求,而不太在意模型的部署性能。一般来说,我们用深度学习框架训练出一个模型之后,使用Python就足以实现一个简单的推理演示了。但在生产环境下,Python的可移植性和速度性能远不如C++。所以对于深度学习算法工程师而言,Python通常用来做idea的快速实现以及模型训练,而用C++作为模型的生产工具。目前PyTorch能够完美的将二者结合在一起。实现PyTorch模型部署的核心技术组件就是TorchScript和libtorch。
所以基于PyTorch的深度学习算法工程化流程大体如下图所示:
1. 安装libtorch
pytorch官网 下载libtorch
解压到指定的位置,我这里直接解压到/home/xxx/
.
2. 将模型转换为torch脚本
定义一个python文件,载入模型文件pth,然后将其转换为torch脚本.
import torchdef load_checkpoint(filepath): checkpoint = torch.load(filepath, map_location='cpu') model = checkpoint['model'] # 提取网络结构 model.load_state_dict(checkpoint['model_state_dict']) # 加载网络权重参数 for parameter in model.parameters(): parameter.requires_grad = False model.eval() return modelmodel = load_checkpoint('./resnext101_32x8.pth')# 这里如果保存采用gpu模型,就必须将example转换为cuda类型example = torch.rand(1, 3, 224, 224)# 转换为torch脚本# 这里有两种方式,另一种方式为script,如果模型中存在if的分支结构,使用trace不行的,使用script# 参考链接: https://pytorch.apachecn.org/docs/1.2/beginner/Intro_to_TorchScript_tutorial.htmltraced_script_module = torch.jit.trace(model, example)# 测试转换是否正确output = traced_script_module(torch.ones(1, 3, 224, 224))print(output)
3. torch脚本序列化为文件
将上文转换完成的脚本序列化为pt模型文件
traced_script_module.save('./trace_resnext101_32x8.pt')
4. 在c++中调用模型
1. CMakeLists.txt
# 指定 cmake 最低编译版本cmake_minimum_required(VERSION 3.0 FATAL_ERROR)# 指定project的名称project(c)#添加需要的库set(CMAKE_PREFIX_PATH /home/lxztju/libtorch_cpu /home/lxztju/opencv_3.4.3/build)find_package(Torch REQUIRED)find_package(OpenCV REQUIRED)#添加可执行文件add_executable(c main.cpp)#外部库依赖target_link_libraries(c ${TORCH_LIBRARIES} ${OpenCV_LIBS})# 编译语言set_property(TARGET c PROPERTY CXX_STANDARD 14)
opencv安装
由于使用了opencv这里记录opencv的安装(ubuntu)
下载地址:https://opencv.org/releases/
然后解压在指定文件夹下,这里解压在/home/lxztju
下.
cd /home/lxztju/opencv-3.4.3mkdir buildcd build
sudo cmake -D CMAKE_BUILD_TYPE=Release -D CMAKE_INSTALL_PREFIX=/usr/local ..sudo make -j8sudo make install
配置环境
sudo gedit /etc/ld.so.conf# 添加一行 include /usr/loacal/lib# 其中/usr/local是makefile中指定的路径sudo gedit /etc/bash.bashrc
在末尾添加如下内容
PKG_CONFIG_PATH=$PKG_CONFIG_PATH:/usr/local/lib/pkgconfigexport PKG_CONFIG_PATH
source /etc/bash.bashrc# 查看是否安装成功pkg-config opencv --modversion
2. cpp文件
//头文件#include #include #include #include #include #include # include #include using namespace std;//https://pytorch.org/tutorials/advanced/cpp_export.html//存储测试图像的文件夹string image_path ( "/home/lxztju/git/model_deployment/c/image");//获取一个文件夹下的所有图像,存入files着发饿vector中.void getFiles( string path, vector& files ){ struct dirent *ptr; DIR *dir; dir = opendir(path.c_str()); while ((ptr = readdir(dir)) != NULL) { //跳过'.'和'..'两个目录 if(ptr->d_name[0] == '.') continue; files.push_back(ptr->d_name); }}int main(int argc, const char* argv[]){ //载入模型 torch::jit::script::Module module = torch::jit::load("/home/luxiangzhe/git/model_deployment/c/trace_resnext101_32x8.pt"); cout << "ok\n"; vector files; char * filePath = "/home/luxiangzhe/git/model_deployment/c/image";获取该路径下的所有文件 getFiles(filePath, files ); int size = files.size();// for (int i = 0;i < size;i++)// {// cout<// } clock_t start, end; double totle_time; for (int i = 0; i < files.size(); i++) { // 输入图像 auto image = cv::imread(image_path + '/' + files[i], cv::ImreadModes::IMREAD_COLOR); cv::Mat image_transformed; cv::resize(image, image_transformed, cv::Size(224, 224)); cv::cvtColor(image_transformed, image_transformed, cv::COLOR_BGR2RGB); //图像转换为tensor torch::Tensor image_tensor = torch::from_blob(image_transformed.data, {image_transformed.rows, image_transformed.cols, 3}, torch::kByte); image_tensor = image_tensor.permute({2, 0, 1}); image_tensor = image_tensor.toType(torch::kFloat); image_tensor = image_tensor.div(255); image_tensor = image_tensor.unsqueeze(0); //这里如果采用gpu版本的libtorch模型,需要将测试图像转换为cuda //image_tensor = image_tensor.to(at::kCUDA); //start = clock(); //前向传播 at::Tensor output = module.forward({image_tensor}).toTensor(); //end = clock(); //totle_time = (double)(end-start) /CLOCKS_PER_SEC; //cout << "totle time: " << totle_time < auto max_result = output.max(1, true); auto max_index = std::get<1>(max_result).item(); cout < } return 0;}
3. 编译链接
首先在c++ 项目中建立文件夹
mkdir buildcd build
编译链接
cmake ..make
执行生成的可执行文件
./project_name
一个问题
这里我对比了pytorch与libtorch模型的推理速度,发现采用c++与libtorch的结合速度要慢很多,这个我看了github上的一些回答,也没有发现合理的解释,不知道怎么回事,可能采用c++并发会很大程度上加快整体的运行速度,也不清楚怎么回事.还希望看到的大佬能够解答一下.
pytorch checkpoint_pytorch的两种部署方式 web部署与c++部署相关推荐
- Web APi之认证(Authentication)两种实现方式【二】(十三)
前言 上一节我们详细讲解了认证及其基本信息,这一节我们通过两种不同方式来实现认证,并且分析如何合理的利用这两种方式,文中涉及到的基础知识,请参看上一篇文中,就不再叙述废话. 序言 对于所谓的认证说到底 ...
- (转)javabean是什么和总结javabean的两种使用方式
一. javabean 是什么? Javabean 就是一个类,这个类就定义一系列 get<Name> 和 set<Name> 方法. So simple ! Javabean ...
- JavaBean是什么和总结JavaBean的两种使用方式
转载于:http://www.blogjava.net/flysky19/articles/88180.html 一. javabean 是什么? Javabean 就是一个类,这个类就定义一系列 g ...
- Silve37.Silverlight和ASP.NET相互传参的两种常用方式(QueryString,Cookie)
在本节中将讲述Silverlight和ASP.NET页面的相互传参的两种常用方式:Cookie和QueryString.首先我们新建一个名 为SLConnectASP.NET的Silverlight应 ...
- android中资源文件的两种访问方式,Android_Android学习笔记-保存文件(Saving Files),Android设备有两种文件存储区域 - phpStudy...
Android学习笔记-保存文件(Saving Files) Android设备有两种文件存储区域: 内部存储和外部存储 ("internal" and "externa ...
- apache php 工作模式,PHP Apache中两种工作方式区别(CGI模式、Apache 模块DLL)
搜索热词 对PHP在Apache中两种工作方式的区别(CGI模式.Apache 模块DLL)感兴趣的小伙伴,下面一起跟随编程之家 jb51.cc的小编两巴掌来看看吧! Windows 下有两种方法使 ...
- 斑马打印机客户端GET和POST,以及后端两种打印方式。
斑马打印机客户端GET和POST,以及后端两种打印方式. 背景环境:打印机安装在客户端外网.当用户登录时,通过ajax取服务器数据,返回打印机命令,然后客户端通过JS发送给斑马打印机. 1.使用Get ...
- 如何在请求转发的时候对url解码_Java技术分享:Forward和Redirect这两种转发方式的区别...
用户向服务器发送了一次HTTP请求,该请求可能会经过多个信息资源处理以后才返回给用户,各个信息资源使用请求转发机制相互转发请求,但是用户是感觉不到请求转发的.根据转发方式的不同,可以区分为直接请求转发 ...
- 两种include方式及filter中的dispatcher解析
两种include方式 我自己写了一个original.jsp,另外有一个includedPage.jsp,我想在original.jsp中把includedPage.jsp引进来有两种方式: 1.& ...
最新文章
- Nginx 为什么这么快?
- Redis支持的5种数据类型
- Linux学习之系统编程篇: 阻塞信号集、未决信号集、自定义信号集
- 五分钟了解一致性hash算法!
- python循环语句知识点_Python for 循环语句【每日一个知识点第115期
- EXCEL两组数相等红色标示并放到第三列_VBA
- ecshop dizcuz会员整合
- 计算机考试图表怎么做,2017年最新计算机考试Excel知识点:创建图表
- 基于情感词典的情感值分析
- Bartender 让Mac选项列不再拥挤
- 清理C盘内存有用的办法
- java中socket编程实例_Java Socket编程实例
- PDF查看器之pdfvuer
- [读书] 《未来世界的幸存者》关于熵减的心得
- 计算机组成原理——计算机的运算方法
- Springboot整支付宝网站支付、APP支付、单笔转账给用户、退款功能
- 2022山东视力防控大会,中国护眼产品展,济南近视矫正设备展
- ant-design在 vue 抽屉(drawer)里面嵌套弹出框(modal)出现蒙层遮挡弹框问题
- 16g电脑内存有什么好处_电脑16g内存和8g内存区别多大
- 手把手教你从0到1搭建vue3+ts+vite+element-plus简易后台管理系统
热门文章
- Git根据文件名字查询修改文件内容
- Git停止跟踪rm -r --cached与ignore区别
- PHPExcel进行获取列字母
- 大型互联网公司架构演进之路汇总
- java 年历_逆转监督漫画
- e2fsck -y 故障_MC2-XWHM-Y
- mysqli 返回一条结果_php中mysqli 处理查询结果集总结
- python对工作效率的提升_使用了这个几个Python内置小工具,可以让你的工作效率提升一倍...
- linux 替换文件中的内容/查找、替换、全部替换
- 【Node.js】http-server 实现目录浏览服务