目录

一、背景

二、环境

2.1 服务器环境

2.2 SDK环境

2.3 docker环境

三、移植开发

3.1 模型迁移

3.2 算法迁移

四、部署


一、背景

YOLOv7在 5 FPS 到 160 FPS 范围内的速度和准确度都超过了所有已知的目标检测器,并且在 GPU V100 上 30 FPS 或更高的所有已知实时目标检测器中,具有最高的准确度 56.8% AP。

YOLOv7-E6(56 FPS V100,55.9% AP)比基于Transformer的检测器 SWIN-L Cascade-Mask R-CNN(9.2 FPS A100,53.9% AP)的速度和准确度分别高出 509% 和 2%,并且比基于卷积的检测器 ConvNeXt-XL Cascade-Mask R-CNN (8.6 FPS A100, 55.2% AP) 速度提高 551%,准确率提高 0.7%,以及 YOLOv7 的表现还优于:YOLOR、YOLOX、Scaled-YOLOv4、YOLOv5、 DETR、Deformable DETR、DINO-5scale-R50、ViT-Adapter-B和许多其他速度和准确度的目标检测算法。此外,YOLOv7基于 MS COCO 数据集上从零开始训练 ,未使用任何其他数据集或预训练的权重。

为了更好的服务客户,这里基于该算法进行提前适配,方便后续客户使用时进行参考、指导。

官方仓库:https://github.com/WongKinYiu/yolov7
模型地址:https://github.com/WongKinYiu/yolov7/releases/download/v0.1/yolov7x.pt

二、环境

2.1 服务器环境

SDK复现需要借助一定的开发环境,这里基于公有服务器,通过ssh方式使用,步骤如下:

  1. 申请服务器账号
  1. 借助ssh工具,登录到服务器,MobaXterm、SecureCRT等软件
  1. 下载必要的成果物:SDK最新包+docker镜像,可以采用wget命令:

# docker镜像
wget https://sophon-file.sophon.cn/sophon-prod-s3/drive/22/03/19/13/bmnnsdk2-bm1684-ubuntu-docker-py37.zip
#SDK
wget https://sophon-file.sophon.cn/sophon-prod-s3/drive/22/05/31/11/bmnnsdk2_bm1684_v2.7.0_20220531patched.zip

下载好的成果物如下:

2.2 SDK环境

通过上述操作,我们已经下载了必备的成果物,这里先解压SDK整包,解压后,可以通过校验MD5码,防止文件被篡改,带来一些不必要的麻烦,命令如下:

(base) xxx@bitmain-SYS-4028GR-TR2:~$unzip bmnnsdk2_bm1684_v2.7.0_20220531patched.zip
Archive:  bmnnsdk2_bm1684_v2.7.0_20220531patched.zip
   creating: bmnnsdk2_bm1684_v2.7.0_20220531patched/
  inflating: bmnnsdk2_bm1684_v2.7.0_20220531patched/bmnnsdk2.MD5
  inflating: __MACOSX/bmnnsdk2_bm1684_v2.7.0_20220531patched/._bmnnsdk2.MD5
  inflating: bmnnsdk2_bm1684_v2.7.0_20220531patched/release_version.txt
  inflating: __MACOSX/bmnnsdk2_bm1684_v2.7.0_20220531patched/._release_version.txt
  inflating: bmnnsdk2_bm1684_v2.7.0_20220531patched/bmnnsdk2-bm1684_v2.7.0.tar.gz
  inflating: __MACOSX/bmnnsdk2_bm1684_v2.7.0_20220531patched/._bmnnsdk2-bm1684_v2.7.0.tar.gz
(base) xxx@bitmain-SYS-4028GR-TR2:~/bmnnsdk2_bm1684_v2.7.0_20220531patched$cat bmnnsdk2.MD5
6ae7d9b5a8564eb66f4f820319c2d39f  ./bmnnsdk2-bm1684_v2.7.0.tar.gz
bf2c860701575909e43b964011694c8f  ./release_version.txt
(base) xxx@bitmain-SYS-4028GR-TR2:~/bmnnsdk2_bm1684_v2.7.0_20220531patched$md5sum ./*
6ae7d9b5a8564eb66f4f820319c2d39f  ./bmnnsdk2-bm1684_v2.7.0.tar.gz
7719bf8cd5d5de8388ebcddda6f2c4be  ./bmnnsdk2.MD5
bf2c860701575909e43b964011694c8f  ./release_version.txt

继续解压缩SDK真正成果物,如下:

(base) xxx@bitmain-SYS-4028GR-TR2:~/bmnnsdk2_bm1684_v2.7.0_20220531patched$tar -zxvf bmnnsdk2-bm1684_v2.7.0.tar.gz
bmnnsdk2-bm1684_v2.7.0/
bmnnsdk2-bm1684_v2.7.0/release_version.txt
......

至此,SDK包的环境已经处理完毕。

2.3 docker环境

经过上述操作,我们已经进入到服务器环境,并且下载好了相关成果物。为了方便复现SDK,这里直接基于官方docker镜像,不再采用自搭docker。

docker采用ubuntu-docker-py37,首先需要解压该docker压缩包,解压缩后,可以通过校验MD5码,防止文件被篡改,带来一些不必要的麻烦,命令如下:

(base) xxx@bitmain-SYS-4028GR-TR2:~$unzip bmnnsdk2-bm1684-ubuntu-docker-py37.zip
Archive:  bmnnsdk2-bm1684-ubuntu-docker-py37.zip
   creating: bmnnsdk2-bm1684-ubuntu-docker-py37/
 extracting: bmnnsdk2-bm1684-ubuntu-docker-py37/bmnnsdk2-bm1684-ubuntu.docker
 extracting: bmnnsdk2-bm1684-ubuntu-docker-py37/bmnnsdk2.MD5
 extracting: bmnnsdk2-bm1684-ubuntu-docker-py37/Dockerfile.bm1684
 extracting: bmnnsdk2-bm1684-ubuntu-docker-py37/release_version.txt
(base) xxx@bitmain-SYS-4028GR-TR2:~/bmnnsdk2-bm1684-ubuntu-docker-py37$cat bmnnsdk2.MD5
cf91eb0ff60f28e368bba1c357d2e7e5  ./Dockerfile.bm1684
c181ce60245b4fe07596d8a360944903  ./release_version.txt
105a4d5d13a41d97353fd2dab88b4802  ./bmnnsdk2-bm1684-ubuntu.docker
(base) xxx@bitmain-SYS-4028GR-TR2:~/bmnnsdk2-bm1684-ubuntu-docker-py37$md5sum ./*
105a4d5d13a41d97353fd2dab88b4802  ./bmnnsdk2-bm1684-ubuntu.docker
7b1fdecee114e6d2d82c21286e9b1a39  ./bmnnsdk2.MD5
cf91eb0ff60f28e368bba1c357d2e7e5  ./Dockerfile.bm1684
c181ce60245b4fe07596d8a360944903  ./release_version.txt

之后通过加载docker镜像,将镜像仓库加载到服务器环境,命令如下:

#装载镜像
(base) xxx@bitmain-SYS-4028GR-TR2:~/bmnnsdk2-bm1684-ubuntu-docker-py37$docker load -i bmnnsdk2-bm1684-ubuntu.docker
Loaded image: bmnnsdk2-bm1684/dev:ubuntu16.04
#查看docker镜像列表
(base) xxx@bitmain-SYS-4028GR-TR2:~/bmnnsdk2-bm1684-ubuntu-docker-py37$docker images
......
bmnnsdk2-bm1684/dev  ubuntu16.04  d034e9bec3a7 3 months ago  4.6GB

参考官方说明,SDK包中有docker运行的脚本docker_run_bmnnsdk.sh,这里为了方便识别,对脚本做了一些修改:重命名container名称等,如下(可以根据自己需要增删):

if [ -c "/dev/bm-sophon0" ]; then
  for dev in $(ls /dev/bm-sophon*);
  do
    mount_options+="--device="$dev:$dev" "
  done
  CMD="docker run \
      --name ubuntu16.0-py37-wnb \
      --network=host \
      --workdir=/workspace \
      --privileged=true \
      ${mount_options} \
      --device=/dev/bmdev-ctl:/dev/bmdev-ctl \
      -v /dev/shm --tmpfs /dev/shm:exec \
      -v $WORKSPACE:/workspace \
      -v /dev:/dev \
      -v /etc/localtime:/etc/localtime \
      -e LOCAL_USER_ID=`id -u` \
      -it $REPO/$IMAGE:$TAG \
      bash
  "
else
  CMD="docker run \
      --name ubuntu16.0-py37-wnb \
      --network=host \
      --workdir=/workspace \
      --privileged=true \
      -v $WORKSPACE:/workspace \
      -v /dev/shm --tmpfs /dev/shm:exec \
      -v /etc/localtime:/etc/localtime \
      -e LOCAL_USER_ID=`id -u` \
      -it $REPO/$IMAGE:$TAG \
      bash
  "
fi

下面创建container,采用官方脚本,容器创建后,会默认进入,命令如下:

(base) xxx@bitmain-SYS-4028GR-TR2:~/bmnnsdk2_bm1684_v2.7.0_20220531patched/bmnnsdk2-bm1684_v2.7.0$./docker_run_bmnnsdk.sh
/mnt/sdb2/xxx/bmnnsdk2_bm1684_v2.7.0_20220531patched/bmnnsdk2-bm1684_v2.7.0
/mnt/sdb2/xxx/bmnnsdk2_bm1684_v2.7.0_20220531patched/bmnnsdk2-bm1684_v2.7.0
bmnnsdk2-bm1684/dev:ubuntu16.04
docker run --name ubuntu16.0-py37-wnb --network=host --workdir=/workspace --privileged=true --device=/dev/bm-sophon0:/dev/bm-sophon0 --device=/dev/bm-sophon1:/dev/bm-sophon1 --device=/dev/bm-sophon2:/dev/bm-sophon2 --device=/dev/bm-sophon3:/dev/bm-sophon3 --device=/dev/bm-sophon4:/dev/bm-sophon4 --device=/dev/bm-sophon5:/dev/bm-sophon5 --device=/dev/bm-sophon6:/dev/bm-sophon6 --device=/dev/bm-sophon7:/dev/bm-sophon7 --device=/dev/bm-sophon8:/dev/bm-sophon8 --device=/dev/bmdev-ctl:/dev/bmdev-ctl -v /dev/shm --tmpfs /dev/shm:exec -v /mnt/sdb2/xxx/bmnnsdk2_bm1684_v2.7.0_20220531patched/bmnnsdk2-bm1684_v2.7.0:/workspace -v /dev:/dev -v /etc/localtime:/etc/localtime -e LOCAL_USER_ID=1032 -it bmnnsdk2-bm1684/dev:ubuntu16.04 bash
root@bitmain-SYS-4028GR-TR2:/workspace#

注:上述方式运行的container,在退出后,container会自动退出,为了方便反复使用,可以通过如下命令进入:

(base) xxx@bitmain-SYS-4028GR-TR2:~/bmnnsdk2_bm1684_v2.7.0_20220531patched/bmnnsdk2-bm1684_v2.7.0$docker start ubuntu16.0-py37-wnb
ubuntu16.0-py37-wnb
(base) xxx@bitmain-SYS-4028GR-TR2:~/bmnnsdk2_bm1684_v2.7.0_20220531patched/bmnnsdk2-bm1684_v2.7.0$docker exec -it ubuntu16.0-py37-wnb bash
root@bitmain-SYS-4028GR-TR2:/workspace#

至此,基本环境就搭建完毕了。

三、移植开发

常规算法移植,基本上都需要以下几个阶段:

具体各阶段需要做的事情如下:

  1. 评测选型:根据应用场景,确定使用的产品形态,敲定模型;
  2. 模型迁移:将原始深度学习框架下训练生成的模型转换为具体硬件平台支持的模型,涉及量化、自定义算子等;
  3. 算法移植:将模型的前后处理部分进行加速接口替换,一般硬件平台都会针对一些常见的图片处理接口进行加速,比如:图片缩放、色彩空间转换等。
  4. 程序移植:移植任务管理、资源调度等算法引擎代码及逻辑处理、结果展示、数据推送等业务代码,根据具体业务相关。
  5. 测试调优:网络性能与精度测试、压力测试,基于网络编译、量化工具、多卡多芯、任务流水线等方面的深度优化。
  6. 部署联调:将算法服务打包(如Docker)部署到BM168X硬件产品上,并在实际场景中与业务平台或集成平台进行功能联调;必要时在生产环境中调整参数配置并收集数据进一步优化模型。

本次移植已确定具体算法,并且不涉及复杂的业务逻辑,只需要关注【模型迁移】、【算法移植】、【测试调优】,下面会结合具体移植实操,进行展开讲解。

3.1 模型迁移

3.1.1 fp32bmodel生成

3.1.1.1 模型准备

由于官方原生模型默认采用Eager mode(用于构建原型、训练和实验),无法与python解耦,也就是需要依赖YOLOv7源码,无法直接进行模型转换,因此,需要先通过trace进行转换。这里基于官方项目进行:

  1. 拉取官方代码仓库,安装相关依赖
  1. 下载原生模型,当前官方仅提供了第一个版本v0.1
  1. 原生转换为torchscript模型,可以直接采用官方提供的export.py,命令如下:

(yolov7) root@bitmain-SYS-4028GR-TR2:yolov7# python m models/export.py --weights yolov7.pt 
......
Export complete (10.26s). Visualize with https://github.com/lutzroeder/netron.

# 目录结构
root@bitmain-SYS-4028GR-TR2:/workspace/code/yolov7# tree -L 1
.
|-- LICENSE.md
|-- ......
|-- yolov7.onnx             # 转换后模型
|-- yolov7.pt               # 原模型
`-- yolov7.torchscript.pt   # 转换后模型

3.1.1.2 模型转换

下面基于yolov7.torchscript.pt进行模型迁移,采用官方原生的docker环境,通过bmnetp工具实现模型转换,主要转换代码如下:

python3 -m bmnetp \
       --net_name=yolov7 \
       --target=${platform} \
       --opt=1 \
       --cmp=true \
       --shapes="[1,3,640,640]" \
       --model=${model_dir} \
       --outdir=${output_dir} \
       --dyn=false

执行完成后,会在指定目录生成yolov7_float32_1b.bmodel,该工具相关说明可以通过python3 -m bmnetp --help查看,也可以参考官方说明。

3.1.1.3 精度回归

精度回归(这里主要验证转换前后一致性,其他用法详见工具说明)需要依赖BM1684芯片(PICE或者SOC模式均可),并且在【模型转换】时配置了--cmp=true,模型转换完成后,在指定路径下不仅会生成bmodel,还会生成input_ref_data.dat和output_ref_data.dat。

工具采用官方提供的bmrt_test,该工具用法比较简单,执行时会取input_ref_data.dat数据,在BM1684上进行推理,然后比较推理结果和output_ref_data.dat差异,浮点数据差异小于1e-2(可配)即通过:

bmrt_test --context_dir=模型转换指定路径

这里采用yolov7转换后的模型做演示,如下所示,当出现cmp success +++(未报错)意味着精度回归通过:

root@bitmain-SYS-4028GR-TR2:YOLOv7_object/model# bmrt_test --context_dir=./output/YOLOv7/
......
[BMRT][bmrt_test:1038] INFO:==>comparing #0 output ...
[BMRT][bmrt_test:1043] INFO:+++ The network[yolov7] stage[0] cmp success +++
[BMRT][bmrt_test:1063] INFO:load input time(s): 0.004891
[BMRT][bmrt_test:1064] INFO:calculate  time(s): 0.084028
[BMRT][bmrt_test:1065] INFO:get output time(s): 0.007568
[BMRT][bmrt_test:1066] INFO:compare    time(s): 0.027697

至此,fp32bmodel模型迁移完成

注:最准确的做法是使用官方验证集进行精度指标统计,这里不展开介绍,待后续放到YOLOv5量化调优 介绍

3.1.2 int8 bmodel

模型量化就是将训练好的深度神经网络的权值,激活值等从高精度转化成低精度的操作过程,例如将32位浮点数转化成8位整型数int8,同时我们期望转换后的模型准确率与转化前相近。

针对模型量化,算能目前支持int8量化,提供一整套Qantization-Tools用于支持模型量化。模型量化相较于fp32模型转换会复杂一些,流程图如下所示:

量化流程

3.1.2.1 量化数据集准备

Quantization-tools作为Post-Training量化工具,对已经训练好的float32网络进行量化。此过程需要一定数量的真实数据用float32网络进行推理,推理过程中会统计每层的输入输出数据范围作为量化参考,关于数据集:

  1. 如果使用一键量化接口,对于常见的CV类推理任务,设置量化图片的路径和前处理会在一键量化的过程中生成lmdb,分步量化的时候可以直接使用;
  2. 如果简单的前处理设置不能满足需求或者对于非CV类的网络输入可能是各种shape,可以自己制作lmdb。

这里采用自己制作lmdb数据集的方式,基于coco128数据进行处理,参考官方前处理(需要保持一致),主要是等比例加框处理、归一化,将数据集处理成lmdb格式的文件,命令执行如下:

root@bitmain-SYS-4028GR-TR2:YOLOv7_object/data# python3 convert_imageset.py --imageset_rootfolder ./coco128/images/train2017/ --imageset_lmdbfolder ./ --image_size  640 --bgr2rgb True --gray False
remove original lmdb file /workspace/examples/YOLOv7_object/data/data.mdb
remove original lmdb file /workspace/examples/YOLOv7_object/data/data.mdb Ok!

reading image /workspace/examples/YOLOv7_object/data/coco128/images/train2017/000000000472.jpg
original shape: (226, 640, 3)
save test.jpg done
......

root@bitmain-SYS-4028GR-TR2:YOLOv7_object/data# tree -L 1
.
|-- coco128
|-- convert_imageset.py
|-- data.mdb                 #制作好的数据集      
`-- download_coco128.sh

为了方便查看前处理图片是否正确,防止后期出问题排查成本,可以将加框处理后图片存出后,对比查看,如下可以看出前处理正确:

左图原图,右图预处理后

3.1.2.2 fp32umodel生成

下面需要将基于不同框架的网络转换为float32 Umodel之后进行量化,此过程中可以指定【3.1.2.1】中准备好的数据作为推理输入。 此步骤使用到的工具为ufw.tools.*_to_umodel,部分转换脚本代码如下:

python3 -m ufw.tools.pt_to_umodel \
      -m ${model_dir} \
      -s '(1,3,640,640)' \
      -d ${output_dir} \
      -D ${cali_data} \
      --cmp

转换完成后,会在指定目录下生成对应成果物,如下:

root@bitmain-SYS-4028GR-TR2:YOLOv7_object/model# ./gen_fp32umodel.sh
......
Compiling succeeded.
####################################
Converting Process Done Sucessfully
####################################
fp32umodel done

#转换成果物目录
../data/models/int8bmodel/
|-- io_info.dat
|-- yolov7.torchscript_bmnetp.fp32umodel          # umodel参数
`-- yolov7.torchscript_bmnetp_test_fp32.prototxt  # 模型文件

3.1.2.3 int8umodel生成

通过一定次数的推理统计和计算量化参数,将float32 Umodel转化为int8 Umodel。此步骤使用到的工具为calibration_use_pb二进制工具或者其python形式接口。该步骤是算法最关键,也是最耗时的一步,后面会专门讲解如何调优,这里就不过多展开阐述。

基于上述前面制作生成的lmdb数据集、fp32umode、prototxt等成果物,进行int8umodel转换,主要包含两部分:

  1. 对输入浮点网络进行图优化,这一步在【3.1.2.2】中已包含,也可以在此处做
  2. 对浮点网络进行量化,得到int8的网络及权重文件

这里我们只进行int8的量化,不进行图优化,迭代200次,部分代码如下,工具相关参数可以通过calibration_use_pb --help查看:

calibration_use_pb  quantize \
            -model ${output_dir}/yolov7.torchscript_bmnetp_test_fp32.prototxt \
            -weights ${output_dir}/yolov7.torchscript_bmnetp.fp32umodel \
            -iterations 1 \
            -save_test_proto \
            -graph_transform \
            -accuracy_opt \
            -conv_group \
            -per_channel

相关执行过程,详见如下部分操作记录:

root@bitmain-SYS-4028GR-TR2:YOLOv7_object/model# ./gen_int8umodel.sh
......
/usr/bin/dot
I0718 10:46:52.879577  6933 cali_core.cpp:1474] used time=0 hour:25 min:22 sec
I0718 10:46:52.879654  6933 cali_core.cpp:1476] int8 calibration done.
Congratulation! Everything is OK!

# 成果物目录结构
../data/models/int8bmodel/
|-- io_info.dat
|-- yolov7.torchscript_bmnetp.fp32umodel
|-- yolov7.torchscript_bmnetp.fp32umodel_optimized
|-- yolov7.torchscript_bmnetp.int8umodel                      # umodel成果物
|-- yolov7.torchscript_bmnetp_deploy_fp32_unique_top.prototxt
|-- yolov7.torchscript_bmnetp_deploy_int8_unique_top.prototxt # 对应的模型文件
|-- yolov7.torchscript_bmnetp_test_fp32.prototxt
|-- yolov7.torchscript_bmnetp_test_fp32.prototxt_optimized
|-- yolov7.torchscript_bmnetp_test_fp32_unique_top.prototxt
`-- yolov7.torchscript_bmnetp_test_int8_unique_top.prototxt

3.1.2.4 int8bmodel生成

量化完成后部署,与float32网络部署类似。使用bmnetu工具将int8 Umodel转换成最终能部署到BM1684相关设备上能运行的int8bmodel。

编译生成int8bmodel的部分代码如下,编译成功后,会在指定目录生成对应成果物:

bmnetu \
    -model ${output_dir}/yolov7.torchscript_bmnetp_deploy_int8_unique_top.prototxt \
    -weight ${output_dir}/yolov7.torchscript_bmnetp.int8umodel \
    -target ${platform} \
    -outdir ${output_dir} \
    -cmp true

相关执行过程,详见如下部分操作记录:

root@bitmain-SYS-4028GR-TR2:YOLOv7_object/model# ./gen_int8bmodel.sh
......
============================================================
*** Store bmodel of BMCompiler...
============================================================
BMLIB Send Quit Message
Congratulation! Everything is OK!

# 成果物目录结构
../data/models/int8bmodel/
|-- compilation.bmodel                # bmodel成果物
|-- input_ref_data.dat
|-- io_info.dat
|-- output_ref_data.dat
|-- yolov7.torchscript_bmnetp.fp32umodel
|-- yolov7.torchscript_bmnetp.fp32umodel_optimized
|-- yolov7.torchscript_bmnetp.int8umodel
|-- yolov7.torchscript_bmnetp_deploy_fp32_unique_top.prototxt
|-- yolov7.torchscript_bmnetp_deploy_int8_unique_top.prototxt
|-- yolov7.torchscript_bmnetp_test_fp32.prototxt
|-- yolov7.torchscript_bmnetp_test_fp32.prototxt_optimized
|-- yolov7.torchscript_bmnetp_test_fp32_unique_top.prototxt
|-- yolov7.torchscript_bmnetp_test_int8_unique_top.prototxt
`-- yolov7_int8_1b.bmodel

3.1.2.5 精度回归

此步骤可能与量化网络一起进行多轮,通过验证量化后网络是否满足精度或者速度要求,对量化参数进行调节,然后再次量化,达到预期目标。 此步骤使用到的工具为ufw test_fp32/ufw test_int8以及可视化工具,或者多数情况下需要用户自己开发精度测试程序验证精度,这里限于篇幅不做展开,后续会在YOLOv5量化调优 中详述。

3.2 算法迁移

算法迁移部分主要的工作是使用BM1684提供的软件接口,实现原来有caffe/pytorch等框架实现的前后处理、推理等代码,也即是适应具体平台提供的软件接口替换原有不再能够使用/性能效率低下的接口,以此达到迁移前的效果。

这里参考官方源码,实现了CPP/Python版本的算法,并且在Python版本中,分别基于opencv、bmcv实现了两个版本:

.
|-- README.md
|-- cpp
|   |-- Makefile.arm
|   |-- Makefile.pcie
|   |-- bmnn_utils.h
|   |-- main.cpp
|   |-- utils.hpp
|   |-- yolov7.cpp
|   `-- yolov7.hpp
|-- python
|   |-- utils
|   |-- yolov7_bmcv_3output.py
|   |-- yolov7_opencv_3output.py
|   `-- yolov7_pytorch.py
`-- tools
    |-- convert_imageset.py
    `-- evaluate_coco.py

下面,基于Python bmcv版本,做简单介绍,让大家对此有个简单认知,如下是前处理中的部分代码:

padded_img_bgr = self.bmcv.vpp_resize_padding(
            img, self.input_shape[2], self.input_shape[3], attr)

padded_img_rgb = sail.BMImage(self.handle, self.input_shape[2], self.input_shape[3],
                              sail.Format.FORMAT_RGB_PLANAR, padded_img_bgr.dtype())

self.bmcv.vpp_resize(padded_img_bgr, padded_img_rgb,
                     self.input_shape[2], self.input_shape[3])

该前处理主要实现了以下几个操作:

  1. letterbox:该步骤采用bmcv.vpp_resize_padding接口,替换掉原opencv中resize、copyMakeBorder
  1. BGR->RGB:该步骤采用bmcv.vpp_resize接口,替换掉原opencv中cvtColor

以点带面,其余涉及到的环节,比如:加载模型、模型推理等,如果不支持(一般都不支持),均需要进行相关接口替换。

四、部署

该步一般需要结合特定业务进行算法封装、部署、测试等,如下是采用量化后模型推理后的可视化结果:

左图官方,右图量化

基于coco2017val测试集,mAP@0.5相较于官方仅下降3.9个百分点:

YOLOv7移植经验分享相关推荐

  1. Ardupilot移植经验分享(1)

    目录 前言 背景 为什么写这篇文章 移植Ardupilot的方法有两种 底层适配 提取应用层代码 两种方法对比 准备阅读源码 阅读官方开发者wiki 选择编译平台 下载编译源代码 切换版本的正确方式 ...

  2. Ardupilot移植经验分享(2)

    目录 明确目标 把握脉络 main函数在哪儿? HAL引用 AP_HAL_PX4框架 setup()和loop() 搞清联系 深入浅出 ardupilot是单线程的吗? 深入细节 Ardupilot系 ...

  3. unity许可证不可用_不可思议之梦蝶从PC版移植到Nintendo Switch经验分享(上)

    本文将分享队友游戏制作人李喆Unite 2019上的技术演讲-<不可思议之梦蝶>从PC版移植到Nintendo Switch经验分享. 受篇幅限制,本次演讲将分享二篇内容.本文将分享:需要 ...

  4. stm32移植paho_如何在STM32上移植Linux?超详细的实操经验分享

    原标题:如何在STM32上移植Linux?超详细的实操经验分享 刚从硬件跳槽为嵌软时,没有任何一丝的准备.一入职,领导就交代了一项特难的任务--在stm32上移植linux! 瞬间我就懵了,没办法硬着 ...

  5. M8软件开发经验总结:移植黄金岛斗地主的经验分享

    8的软件 开发经验总结                         -- 移植黄金岛斗地主的经验分享   by houss  2009.08.02 移植黄金岛斗地主到m8手机 ,是我第一次给win ...

  6. Spark SQL在携程的实践经验分享

    本文根据张翼老师在2018年5月13日[第九届中国数据库技术大会]现场演讲内容整理而成. 讲师简介: 张翼,10年互联网老兵;2015年3月加入携程,携程的大数据平台技术总监,带领团队构建稳定,高效的 ...

  7. 如何从零开始开发一款嵌入式产品(20年的嵌入式经验分享学习)

    如何从零开始开发一款嵌入式产品(20年的嵌入式经验分享学习)_转 来源:www.armjishu.com 作者:jesse 转载请注明出处 首先,如果你有幸看到这篇文章,千万不要试图在2个小时内阅读完 ...

  8. CV好文推荐+迁移学习经验分享

    前几日,52CV分享了最近一本新出的书<深度学习500问>中迁移学习相关的内容:有故事.有实践,谈一谈深度迁移学习方法的基本思路,并举办了以"论文推荐+经验分享"赠送这 ...

  9. 【经验分享】突然我的SM.MS的图床没法访问了(内附解决方法)

    [经验分享]突然我的SM.MS的图床没法访问了(内附解决方法) 一大早写文章,发现Markdown里的图片全部都不能成功加载了,这个的确挺头疼的! 文章目录 1 说一说现象 2 简单排查一下 3 查找 ...

最新文章

  1. vs2012与win7不兼容问题
  2. 虚拟机Ping不通主机解决
  3. java金钱千分位处理_java对金额的处理,保留两位小数、千分位符
  4. 深度学习之基于卷积神经网络(VGG16)实现性别判别
  5. 第5章 Python 数字图像处理(DIP) - 图像复原与重建12 - 空间滤波 - 使用频率域滤波降低周期噪声 - 陷波滤波、最优陷波滤波
  6. 计算球的体积(信息学奥赛一本通-T1030)
  7. VScode配置java开发环境
  8. wpf 客户端【JDAgent桌面助手】开发详解(三) 瀑布流效果实现与UI虚拟化优化大数据显示...
  9. 自动化(YUM/编译)安装PHP(5.3/5.5/7.0/7.1)脚本
  10. 前端技术周刊 2019-02-11 Serverless
  11. 高光谱成像技术在茶叶中的应用研究进展
  12. python 里面的内置函数之:locals() 和 globals()
  13. matlab复杂网络上的博弈演化,科学网—复杂网络上的演化博弈研究 - 汪秉宏的博文...
  14. Python福彩3D单选单复式排列计算器
  15. html怎么改变图片整体大小,css怎么改变图片大小?
  16. 在 unity中可以使用的直接设置音量大小的方法
  17. 软件测试工程师应届生工资,软件测试工程师薪水平均是什么水平?前景发展如何?...
  18. android5.1 Recovery添加从U盘升级功能【转】
  19. 蟠桃会(递推逆序求解)
  20. FPS游戏外挂屡禁不止,如何破局?

热门文章

  1. 产业分析:短视频及直播营销报告
  2. micropython-SPI通讯
  3. 5G 空口信令分析指导书
  4. sinon.stub_JavaScript测试工具对决:Sinon.js vs testdouble.js
  5. c++ opencv 彩色图rgb 转换hsv 再通道分离
  6. 电网负荷调度三维组态软件V2.0
  7. APMserv常见问题
  8. React中使用SWR处理数据请求
  9. 开发过程问题汇总(不断更新)
  10. 英语口语六级模拟测试软件,2016年11月英语六级考试口语试题模拟