基于MindStudio的MindX SDK应用开发全流程

目录

一、MindStudio介绍与安装 2

1 MindStudio介绍 2

2 MindSpore安装 4

MindX SDK介绍与安装 5

1 MindX SDK介绍 5

2.MindX SDK安装 6

三、可视化流程编排介绍 8

1 SDK 基础概念 8

2.可视化流程编排 8

四、SE-Resnet介绍 10

五、开发过程 10

1 创建工程 10

2 代码开发 12

3 数据准备及模型准备 14

4 模型转换功能介绍 15

5 运行测试 16

六、遇见的问题 21

  • MindStudio介绍与安装

相关课程:昇腾全流程开发工具链(MindStudio)

本课程主要介绍MindStudio在昇腾AI开发中的使用,作为昇腾AI全栈中的全流程开发工具链,提供覆盖训练模型、推理应用和自定义算子开发三个场景下端到端工具,极大提高开发效率。

建议开发前,学习该课程的第1章和第3章,可以少走很多弯路!!!

  1. MindStudio介绍

MindStudio提供您在AI开发所需的一站式开发环境,支持模型开发、算子开发以及应用开发三个主流程中的开发任务。依靠模型可视化、算力测试、IDE本地仿真调试等功能,MindStudio能够帮助您在一个工具上就能高效便捷地完成AI应用开发。MindStudio采用了插件化扩展机制,开发者可以通过开发插件来扩展已有功能。

  1. 功能简介
  1. 针对安装与部署,MindStudio提供多种部署方式,支持多种主流操作系统,为开发者提供最大便利。
  2. 针对网络模型的开发,MindStudio支持TensorFlow、Pytorch、MindSpore框架的模型训练,支持多种主流框架的模型转换。集成了训练可视化、脚本转换、模型转换、精度比对等工具,提升了网络模型移植、分析和优化的效率。
  3. 针对算子开发,MindStudio提供包含UT测试、ST测试、TIK算子调试等的全套算子开发流程。支持TensorFlow、PyTorch、MindSpore等多种主流框架的TBE和AI CPU自定义算子开发。
  4. 针对应用开发,MindStudio集成了Profiling性能调优、编译器、MindX SDK的应用开发、可视化pipeline业务流编排等工具,为开发者提供了图形化的集成开发环境,通过MindStudio能够进行工程管理、编译、调试、性能分析等全流程开发,能够很大程度提高开发效率。
  1. 功能框架

MindStudio功能框架如图1-1所示,目前含有的工具链包括:模型转换工具、模型训练工具、自定义算子开发工具、应用开发工具、工程管理工具、编译工具、流程编排工具、精度比对工具、日志管理工具、性能分析工具、设备管理工具等多种工具。

图1-1 工具链功能架构

  1. 工具功能

MindStudio工具中的主要几个功能特性如下:

  1. 工程管理:为开发人员提供创建工程、打开工程、关闭工程、删除工程、新增工程文件目录和属性设置等功能。
  2. SSH管理:为开发人员提供新增SSH连接、删除SSH连接、修改SSH连接、加密SSH密码和修改SSH密码保存方式等功能。
  3. 应用开发:针对业务流程开发人员,MindStudio工具提供基于AscendCL(Ascend Computing Language)和集成MindX SDK的应用开发编程方式,编程后的编译、运行、结果显示等一站式服务让流程开发更加智能化,可以让开发者快速上手。
  4. 自定义算子开发:提供了基于TBE和AI CPU的算子编程开发的集成开发环境,让不同平台下的算子移植更加便捷,适配昇腾AI处理器的速度更快。
  5. 离线模型转换:训练好的第三方网络模型可以直接通过离线模型工具导入并转换成离线模型,并可一键式自动生成模型接口,方便开发者基于模型接口进行编程,同时也提供了离线模型的可视化功能。
  6. 日志管理:MindStudio为昇腾AI处理器提供了覆盖全系统的日志收集与日志分析解决方案,提升运行时算法问题的定位效率。提供了统一形式的跨平台日志可视化分析能力及运行时诊断能力,提升日志分析系统的易用性。
  7. 性能分析:MindStudio以图形界面呈现方式,实现针对主机和设备上多节点、多模块异构体系的高效、易用、可灵活扩展的系统化性能分析,以及针对昇腾AI处理器的性能和功耗的同步分析,满足算法优化对系统性能分析的需求。
  8. 设备管理:MindStudio提供设备管理工具,实现对连接到主机上的设备的管理功能。
  9. 精度比对:可以用来比对自有模型算子的运算结果与Caffe、TensorFlow、ONNX标准算子的运算结果,以便用来确认神经网络运算误差发生的原因。
  10. 开发工具包的安装与管理:为开发者提供基于昇腾AI处理器的相关算法开发套件包Ascend-cann-toolkit,旨在帮助开发者进行快速、高效的人工智能算法开发。开发者可以将开发套件包安装到MindStudio上,使用MindStudio进行快速开发。Ascend-cann-toolkit包含了基于昇腾AI处理器开发依赖的头文件和库文件、编译工具链、调优工具等。
  1. MindStudio安装

具体安装操作请参考:MindStudio安装指南  MindStudio环境搭建指导视频

  1. 场景介绍
  1. 纯开发场景(分部署形态):在非昇腾AI设备上安装MindStudio和Ascend-cann-toolkit开发套件包。可作为开发环境仅能用于代码开发、编译等不依赖于昇腾设备的开发活动(例如ATC模型转换、算子和推理应用程序的纯代码开发)。如果想运行应用程序或进行模型训练等,需要通过MindStudio远程连接功能连接已部署好运行环境所需软件包的昇腾AI设备。
  2. 开发运行场景(共部署形态):在昇腾AI设备上安装MindStudio、Ascend-cann-toolkit开发套件包、npu-firmware安装包、npu-driver安装包和AI框架(进行模型训练时需要安装)。作为开发环境,开发人员可以进行普通的工程管理、代码编写、编译、模型转换等功能。同时可以作为运行环境,运行应用程序或进行模型训练。
  1. 软件包介绍
  1. MindStudio:提供图形化开发界面,支持应用开发、调试和模型转换功能,同时还支持网络移植、优化和分析等功能。
  2. Ascend-cann-toolkit:开发套件包。为开发者提供基于昇腾AI处理器的相关算法开发工具包,旨在帮助开发者进行快速、高效的模型、算子和应用的开发。开发套件包只能安装在Linux服务器上,开发者可以在安装开发套件包后,使用MindStudio开发工具进行快速开发。
  • MindX SDK介绍与安装
  1. MindX SDK介绍

MindX SDK提供昇腾AI处理器加速的各类AI软件开发套件(SDK),提供极简易用的API,加速AI应用的开发。

应用开发旨在使用华为提供的SDK和应用案例快速开发并部署人工智能应用,是基于现有模型、使用pyACL提供的Python语言API库开发深度神经网络应用,用于实现目标识别、图像分类等功能。

图2-1 MindX SDK总体结构

通过MindStudio实现SDK应用开发分为基础开发与深入开发,通常情况下用户关注基础开发即可,基础开发主要包含如何通过现有的插件构建业务流并实现业务数据对接,采用模块化的设计理念,将业务流程中的各个功能单元封装成独立的插件,通过插件的串接快速构建推理业务。

mxManufacture & mxVision关键特性:

  1. 配置文件快速构建AI推理业务。
  2. 插件化开发模式,将整个推理流程“插件化”,每个插件提供一种功能,通过组装不同的插件,灵活适配推理业务流程。
  3. 提供丰富的插件库,用户可根据业务需求组合Jpeg解码、抠图、缩放、模型推理、数据序列化等插件。
  4. 基于Ascend Computing Language(ACL),提供常用功能的高级API,如模型推理、解码、预处理等,简化Ascend芯片应用开发。
  5. 支持自定义插件开发,用户可快速地将自己的业务逻辑封装成插件,打造自己的应用插件。
  1. MindX SDK安装

步骤1 Windows场景下基于MindStuido的SDK应用开发,请先确保远端环境上MindX SDK软件包已安装完成,安装方式请参见《mxManufacture 用户指南》 和《mxVision 用户指南》 的“使用命令行方式开发”>“安装MindX SDK开发套件”章节。

步骤2 在Windows本地进入工程创建页面,工具栏点击File > Settings > Appearance & Behavior > System Settings > MindX SDK进入MindX SDK管理界面。界面中MindX SDK Location为软件包的默认安装路径,默认安装路径为“C:\Users\用户名\Ascend\mindx_sdk”。单击Install SDK进入Installation settings界面,如图2-2。

图2-2 MindX SDK管理界面

如图2-3所示,为MindX SDK的安装界面,各参数选择如下:

  1. Remote Connection:远程连接的用户及IP。
  2. Remote CANN Location:远端环境上CANN开发套件包的路径,请配置到版本号一级。
  3. Remote SDK Location:远端环境上SDK的路径,请配置到版本号一级。IDE将同步该层级下的include、opensource、python、samples文件夹到本地Windows环境,层级选择错误将导致安装失败。
  4. Local SDK Location:同步远端环境上SDK文件夹到本地的路径。默认安装路径为“C:\Users\用户名\Ascend\mindx_sdk”。

图2-3 MindX SDK安装界面

图2-4 安装完成后的MindX SDK管理界面

步骤3 单击OK结束,返回SDK管理界面,可查看安装后的SDK的信息,如图2-4所示,可单击OK结束安装流程。

  • 可视化流程编排介绍
  1. SDK基础概念

通过stream(业务流)配置文件,Stream manager(业务流管理模块)可识别需要构建的element(功能元件)以及element之间的连接关系,并启动业务流程。Stream manager对外提供接口,用于向stream发送数据和获取结果,帮助用户实现业务对接。

Plugin(功能插件)表示业务流程中的基础模块,通过element的串接构建成一个stream。Buffer(插件缓存)用于内部挂载解码前后的视频、图像数据,是element之间传递的数据结构,同时也允许用户挂载Metadata(插件元数据),用于存放结构化数据(如目标检测结果)或过程数据(如缩放后的图像)。

图3-1 SDK业务流程相关基础单元

  1. 可视化流程编排

MindX SDK实现功能的最小粒度是插件,每一个插件实现特定的功能,如图片解码、图片缩放等。流程编排是将这些插件按照合理的顺序编排,实现负责的功能。可视化流程编排是以可视化的方式,开发数据流图,生成pipeline文件供应用框架使用。图 4-2 为推理业务流Stream配置文件pipeline样例。配置文件以json格式编写,用户必须指定业务流名称、元件名称和插件名称,并根据需要,补充元件属性和下游元件名称信息。

步骤1 进入工程创建页面,用户可通过以下方式开始流程编排。在顶部菜单栏中选择Ascend>MindX SDK Pipeline,打开空白的pipeline绘制界面绘制,也可打开用户自行绘制好的pipeline文件,如图3-3。

绘制界面分为左侧插件库、中间编辑区、右侧插件属性展示区,具体参考pipeline绘制 。

步骤2 在左侧编辑框选择插件,拖动至中间编辑框,按照用户的业务流程进行连接。如果拖动错误插件或者错误连线,选中错误插件或者错误连线单击键盘Del键删除。用户自定义的流水线绘制完成后,选中流水线中的所有插件,右键选择Set Stream Name设置Stream名称,如果有多条流水线则需要对每一条流水线设置Stream名称。绘制完成单击Save保存。

图3-2 Detection and Classification配置pipeline样例

图3-3 pipeline绘制界面

  • SE-Resnet50介绍

残差神经网络是何凯明提出的网络.在深度学习中,网络越深往往取得的效果越好,但是设计的网络过深后若干不为零的梯度相乘导致了梯度消失的现象影响了训练,在残差神经网络中借助其残差结构可以有效的避免梯度消失的问题,在imagenet数据集上取得了优异的结果.

SE-Resnet50网络结构,如图4-1所示:

图4-1 SE-Resnet50网络结构

  • 开发过程
  1. 创建工程

步骤一:安装完成后,点击 ”New Project” 创建新的项目,进入创建工程界面。选择Ascend App项目类别,然后就是常规的命名和路径修改,在CANN Version处点击change配置远程连接和远程CANN地址。

图5-1-1 创建项目

步骤二:点击CANN Version的Change后进入下界面进行相关配置,点击远程连接配置的最右侧添加按钮。

图5-1-2 远程连接配置

步骤三:在定义SSH 配置、保存远程服务器的连接配置后返回Remote CANN Setting界面,继续配置CANN location。加载完后再点击Finish即可完成远程环境配置。

图5-1-3 配置CANN location 

步骤四:完成远程连接设置后,点击next会进到模板选择界面,由于我们是推理任务,此时我们选择MindX SDK Project(Python),再点击Finish。MindX SDK(昇腾行业SDK),提供面向不同行业使能的开发套件,简化了使用昇腾芯片推理业务开发的过程。SDK提供了以昇腾硬件功能为基础的功能插件,用户可以通过拼接功能插件,快速构建推理业务,也可以开发自定义功能插件。

图5-1-4 MindX SDK Project(Python)

  1. 代码开发

代码地址:

Ascend/ModelZoo-PyTorch - Gitee.com

SDK相关工程目录结构:

代码介绍:

acc.py:求精度代码,在得到sdk推理结果之后会运行acc.py来求精度,具体使用会在本章节运行测试部分详细展示.

data_to_bin.py:数据预处理代码,会将数据集中图片转换为二进制形式保存在路径中,具体使用会在本章节数据准备部分详细展示

infer.py:里面包含了Sdk_Api这个类,其中主要使用到的函数为

图5-2-1 将cv形式输入转换为sdk输入

图5-2-2 得到输出结果

config.py:已经写好的配置文件,运行时不需要改动

Se_resnet50_ms_test.pipeline:pipeline配置文件,运行时需要修改其中的om文件路径,具体会在运行测试部分详细说明.

main.py:推理时所运行的文件,会将所有经过预处理之后的二进制文件通过图5-2-1、5-2-2所示函数,得到推理结果.

  1. 数据准备及模型准备

数据集使用的是imagenet,在infer/sdk/目录下先创建一个文件夹“./dataset”,将910上经过数据预处理的图片保存为二进制放入,具体操作如下:

在910服务器上执行文件data_to_bin.py

图5-3-1 data_to_bin.py配置参数

在文件中将数据集路径如图5-3-1所示改为实际路径之后,运行python data_to_bin.py.

运行之后./dataset中会生成images与target两个文件夹,里面分别为图片经过预处理之后保存的二进制文件以及每个图片对应的lebel.

图5-3-2 生成的images与target的二进制文件

在准备好二进制文件后在910上导出onnx模型文件,保存到infer/sdk目录下。具体操作如下:

按照图5-3-3所示位置修改pth路径信息,之后运行python pthtar2onnx.py

图5-3-3修改pth路径信息

图5-3-4 生成onnx文件

运行之后会生成图5-3-4所示onnx文件.

  1. 模型转换功能介绍

用户使用torch框架训练好的第三方模型,在导出onnx模型后,可通过ATC工具将其转换为昇腾AI处理器支持的离线模型(*.om文件),模型转换过程中可以实现算子调度的优化、权重数据重排、内存使用优化等,可以脱离设备完成模型的预处理,详细架构如图5-4-1所示。

图5-4-1 ATC工具功能架构

在本项目中,要将pytorch框架下训练好的模型(*.onnx文件),转换为昇腾AI处理器支持的离线模型(*.om文件),具体步骤如下:

步骤1 点击Ascend > Model Converter,进入模型转换界面,参数配置如图5-4-2所示,若没有CANN Machine,请参见第六章第一节CANN安装。

图5-4-2 模型转换界面1

各参数解释如下表所示:

CANN Machine

CANN的远程服务器

Model File

*.onnx文件的路径(可以在本地,也可以在服务器上)

Model Name

生成的om模型名字

Output Path

生成的om模型保存在本地的路径

步骤2 点击Next进入图5-4-3界面,该项目数据不需要预处理,直接点击Next,进入图5-4-4界面,再点击Finish开始模型转换。

图5-4-3 模型转换界面2

图5-4-4 模型转换界面3

       

步骤3 等待出现如图5-4-5所示的提示,模型转换成功

图5-4-5模型转换成功

  1. 运行测试

步骤1 修改“sdk/config/SE-resnet50.pipeline”中的参数,具体操作如图5-5-1所示;

图5-5-1 修改pipeline中*.om文件路径

         

步骤2  在MindStudio工程界面,依次选择“Run > Edit Configurations...”,进入运行配置页面。选择“Ascend App > 工程名”配置应用工程运行参数,图5-5-2为配置示例。配置完成后,单击“Apply”保存运行配置,单击“OK”,关闭运行配置窗口。

图5-5-2 工程推理工程运行参数配置

在本工程中,推理时运行文件选择main.py,运行参数为

--img_path [LR_path] --dataset_name images  --pipeline_path [pipeline_path]

python3 main.py --img_path "/home/data/xd_mindx/csl/val/" --dataset_name images --pipeline_path "/home/data/xd_mindx/csl/infer/sdk/config/SE-resnet50_test.pipeline"

参数解释如下表:

参数

解释

我的设置

img_path

推理图片路径

./val/images/

pipeline_path

Pipeline文件路径

./config/Se_resnet50_ms_test.pipeline

infer_result_dir

推理结果保存路径

./infer_result/images/images/

步骤3 点击运行,出现如图5-5-3所示提示,即为运行成功,infer_result文件夹中即为推理结果,保存为二进制形式。

图5-5-3推理操作过程

步骤4 配置后处理运行程序,在MindStudio工程界面,依次选择“Run > Edit Configurations...”,进入运行配置页面,如图5-5-4所示,点击“+”,后选择Python(后处理可以直接在本地运行),如图5-5-5所示。

图5-5-4运行配置界面

图5-5-5 运行后处理相关配置

Script path

运行文件路径

Parameters

运行时的参数

如图5-5-5所示,运行文件为acc.py:

步骤5 点击运行,出现如图5-5-6所示提示,即为运行成功。

图5-5-6 运行后处理程序

步骤6 结果分析,如图5-5-6所示,已经达到了标准精度。

  • 遇见的问题

在使用MindStudio时,遇到问题,可以登陆MindStudio昇腾论坛进行互动,提出问题,会有专家老师为你解答。

  1. 模型转换时,没有CANN Machine

图6-1 CANN管理界面

解决方案:按以下步骤,重新安装CANN Machine

步骤1 点击File>Settings>Appearance & Behavior > System Settings > CANN,进入CANN管理界面,如图6-1所示:

步骤2 点击Change CANN,进入Remote CANN Setting界面,如图6-2所示重新安装CANN,点击Finish,安装CANN。

6-2 Remote CANN Setting界面

图6-3 安装CANN完成

参数解释如下表:

Remote Connection

远程服务器IP

Remote CANN location

远程服务器中CANN路径

步骤3 完成CANN安装,点击OK,重启MindStudio,如图6-3所示。

  1. MindStudio导入应用工程后,提示“No Python interpreter configured for the module”

解决方案:

步骤1 在顶部菜单栏中选择File > Project Structure,在Project Structure窗口中,点击Platform Settings > SDKs,点击上方的“+”添加Python SDK,从本地环境中导入Python,如图6-4所示。

图6-4 导入Python SDK

步骤2 点击Project Settings > Project,选择上一步添加的Python SDK,如图6-5所示。

图6-5 设置Project SDK

步骤3 点击Project Settings > Modules,选中“MyApp”,点击“+”后选择Python,为Python Interpreter选择上述添加的Python SDK。点击OK完成应用工程Python SDK配置,如图6-6所示。

图6-6 选择Python SDK

基于MindStudio的Resnet50深度学习模型开发相关推荐

  1. R基于H2O包构建深度学习模型实战

    R基于H2O包构建深度学习模型实战 目录 R基于H2O包构建深度学习模型实战 #案例分析

  2. 基于原始影像数据的深度学习模型预测脑龄可获得可靠的遗传生物标志物

    基于机器学习对神经影像数据进行分析可以准确预测健康人的年龄.预测年龄与健康大脑的年龄的偏差被证明与认知障碍和疾病有关.在这里,我们基于深度学习的预测建模方法,特别是卷积神经网络(CNN),进一步测试了 ...

  3. 基于web端的深度学习模型部署

    1.1 web服务与技术框架 下面以ResNet50预训练模型为例,旨在展示一个轻量级的深度学习模型部署,写一个较为简单的图像分类的REST API.主要技术框架为Keras+Flask+Redis. ...

  4. 深度学习模型可解释性初探

    1. 可解释性是什么 0x1:广义可解释性 广义上的可解释性指: 在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息. 比如我们在调试 bug 的时候,需要通过变量审查和 ...

  5. DeepHPV:一个用于预测HPV整合人类基因位点的深度学习模型

    文章出处及相关链接 出处: Briefings in Bioinformatics doi: 10.1093/bib/bbaa242 代码:https://github.com/JiuxingLian ...

  6. 服务器上训练深度学习模型anaconda+cuda+cudnn+pycharm

    这个最好: centos系统搭建深度学习环境_百度搜索 https://www.baidu.com/s?wd=centos%E7%B3%BB%E7%BB%9F%E6%90%AD%E5%BB%BA%E6 ...

  7. 【深度学习】基于web端和C++的两种深度学习模型部署方式

    深度学习 Author:louwill Machine Learning Lab 本文对深度学习两种模型部署方式进行总结和梳理.一种是基于web服务端的模型部署,一种是基于C++软件集成的方式进行部署 ...

  8. pytorch基于web端和C++的两种深度学习模型部署方式

    本文对深度学习两种模型部署方式进行总结和梳理.一种是基于web服务端的模型部署,一种是基于C++软件集成的方式进行部署. 基于web服务端的模型部署,主要是通过REST API的形式来提供接口方便调用 ...

  9. 基于web端和C++的两种深度学习模型部署方式

    深度学习Author:louwillMachine Learning Lab 本文对深度学习两种模型部署方式进行总结和梳理.一种是基于web服务端的模型部署,一种是基... 深度学习 Author:l ...

最新文章

  1. 一文详解PnP算法原理
  2. NLP 领域还有 5 大开放问题
  3. python url加密解密_小叮当Python进阶(二):爬虫与加密算法Part2之URL与Base64
  4. GraphPad Prism 9 如何一次处理多张图表?
  5. 我9月底的SAP Spartacus开发进展情况
  6. 2019-03-14-算法-进化(移动零)
  7. Redis中三种特殊数据类型
  8. 从Oracle数据库故障到AIX内存管理
  9. Maven分布式工程-分页查询(一)
  10. paip.解决中文url路径的问题图片文件不能显示
  11. 有哪些值得实力推荐的高评分经典电影,VIP视频解析网站推荐十部
  12. 密信(MeSince) — 免费的全自动邮件加密软件
  13. Android 设备管理器 理解和使用
  14. 前端JavaScript学习小总结
  15. ICC II setupfloorplan
  16. 引用防删——JAVA设计模式总结之六大设计原则
  17. 美国国土安全部仍然使用COBOL语言
  18. VC 编译选项的使用点滴 warring lnk4908
  19. 【前端基础】盒子模型和页面布局总结
  20. 2023年4月北京机动车尾号限行轮换新规定用手机提醒

热门文章

  1. Vetur can‘t find `tsconfig.json` or `jsconfig.json` in e:\决策测试
  2. 【word】word跨页不断行问题
  3. shell 查看文件大小 du -sh 文件名
  4. java home not set_dbsetup运行时提示JAVA_HOME IS NOT SET
  5. JPDA:Java平台调试架构
  6. A Rapid Scene Depth Estimation Model Based on Underwater Light Attenuation Prior......
  7. (5)手机计算器从入门到精通
  8. 谷歌联合创始人拉里·佩奇语录
  9. Unity VR打包导致UI显示不正确的问题解决
  10. 百度ocr 图片转文字