点击上方“计算机视觉工坊”,选择“星标”

干货第一时间送达

作者‖ 王浩,3D视觉开发者社区签约作者,毕业于北京航空航天大学,人工智能领域优质创作者,CSDN博客认证专家。

编辑‖ 3D视觉开发者社区

1、简介

目前,目标检测领域中主流的两大类方法。

  • 第一大类是 从非Deep时代就被广泛应用的dense detector ,例如DPM,YOLO,RetinaNet,FCOS。在dense detector中,大量的object candidates例如sliding-windows,anchor-boxes, reference-points等被提前预设在图像网格或者特征图网格上,然后直接预测这些candidates到gt的scaling/offest和物体类别。

  • 第二大类是 dense-to-sparse detector ,例如R-CNN家族。这类方法的特点是对一组sparse的candidates预测回归和分类,而这组sparse的candidates来自于dense detector。

但是,dense属性的一些固有局限总让人难以满意,比如:

  • NMS 后处理

  • many-to-one 正负样本分配

  • prior candidates的设计

Sparse R-CNN抛弃了anchor boxes或者reference point等dense概念,直接从a sparse set of learnable proposals出发,没有NMS后处理,整个网络异常干净和简洁,可以看做是在dense(单阶段),dense2sparse(二阶段)之外的一个全新的检测范式。

2、Detectron2介绍

Detectron2 是Facebook第二代检测工具箱,支持目标检测、实例分割、姿态估计、语义分割和全景分割等任务。

我们使用Detectron2很方便的实现模型的训练、测试以及模型转换。所以现在很多的新模型都是在Detectron2开发。

2.1 物体检测的BaseLine(COCO数据集)

Faster R-CNN:

Name lr sched train time (s/iter) inference time (s/im) train mem (GB) box AP model id download
R50-C4[1] 1x 0.551 0.110 4.8 35.7 137257644 model[2] | metrics[3]
R50-DC5[4] 1x 0.380 0.068 5.0 37.3 137847829 model[5] | metrics[6]
R50-FPN[7] 1x 0.210 0.055 3.0 37.9 137257794 model[8] | metrics[9]
R50-C4[10] 3x 0.543 0.110 4.8 38.4 137849393 model[11] | metrics[12]
R50-DC5[13] 3x 0.378 0.073 5.0 39.0 137849425 model[14] | metrics[15]
R50-FPN[16] 3x 0.209 0.047 3.0 40.2 137849458 model[17] | metrics[18]
R101-C4[19] 3x 0.619 0.149 5.9 41.1 138204752 model[20] | metrics[21]
R101-DC5[22] 3x 0.452 0.082 6.1 40.6 138204841 model[23] | metrics[24]
R101-FPN[25] 3x 0.286 0.063 4.1 42.0 137851257 model[26] | metrics[27]
X101-FPN[28] 3x 0.638 0.120 6.7 43.0 139173657 model[29] | metrics[30]

RetinaNet:

Name lr sched train time (s/iter) inference time (s/im) train mem (GB) box AP model id download
R50[31] 1x 0.200 0.062 3.9 36.5 137593951 model[32] | metrics[33]
R50[34] 3x 0.201 0.063 3.9 37.9 137849486 model[35] | metrics[36]
R101[37] 3x 0.280 0.080 5.1 39.9 138363263 model[38] | metrics[39]

RPN & Fast R-CNN:

Name lr sched train time (s/iter) inference time (s/im) train mem (GB) box AP prop. AR model id download
RPN R50-C4[40] 1x 0.130 0.051 1.5 51.6 137258005 model[41] | metrics[42]
RPN R50-FPN[43] 1x 0.186 0.045 2.7 58.0 137258492 model[44] | metrics[45]
Fast R-CNN R50-FPN[46] 1x 0.140 0.035 2.6 37.8 137635226 model[47] | metrics[48]

2.2 使用 Mask R-CNN 的 COCO 实例分割BaseLine

Name lr sched train time (s/iter) inference time (s/im) train mem (GB) box AP mask AP model id download
R50-C4[49] 1x 0.584 0.117 5.2 36.8 32.2 137259246 model[50] | metrics[51]
R50-DC5[52] 1x 0.471 0.074 6.5 38.3 34.2 137260150 model[53] | metrics[54]
R50-FPN[55] 1x 0.261 0.053 3.4 38.6 35.2 137260431 model[56] | metrics[57]
R50-C4[58] 3x 0.575 0.118 5.2 39.8 34.4 137849525 model[59] | metrics[60]
R50-DC5[61] 3x 0.470 0.075 6.5 40.0 35.9 137849551 model[62] | metrics[63]
R50-FPN[64] 3x 0.261 0.055 3.4 41.0 37.2 137849600 model[65] | metrics[66]
R101-C4[67] 3x 0.652 0.155 6.3 42.6 36.7 138363239 model[68] | metrics[69]
R101-DC5[70] 3x 0.545 0.155 7.6 41.9 37.3 138363294 model[71] | metrics[72]
R101-FPN[73] 3x 0.340 0.070 4.6 42.9 38.6 138205316 model[74] | metrics[75]
X101-FPN[76] 3x 0.690 0.129 7.2 44.3 39.5 139653917 model[77] | metrics[78]

3、搭建Sparse R-CNN测试环境

本地环境:操作系统:win10、Cuda11.0。

3.1 创建虚拟环境

创建虚拟环境,并激活环境。

conda create --name sparsercnn python=3.7
activate sparsercnn
conda install pytorch==1.7.1 torchvision==0.8.2 torchaudio==0.7.2 cudatoolkit=11.0-c pytorch

3.2 安装apex库

APEX是英伟达开源的,完美支持PyTorch框架,用于改变数据格式来减小模型显存占用的工具。其中最有价值的是amp(Automatic Mixed Precision),将模型的大部分操作都用Float16数据类型测试,一些特别操作仍然使用Float32。并且用户仅仅通过三行代码即可完美将自己的训练代码迁移到该模型。实验证明,使用Float16作为大部分操作的数据类型,并没有降低参数,在一些实验中,反而由于可以增大Batch size,带来精度上的提升,以及训练速度上的提升。

3.2.1 下载apex库

网址 https://github.com/NVIDIA/apex,下载到本地文件夹。解压后进入到apex的目录安装依赖。在执行命令;

cd C:\Users\WH\Downloads\apex-master #进入apex目录
pip install -r requirements.txt

3.2.2 安装apex库

依赖安装完后,打开cmd,cd进入到刚刚下载完的apex-master路径下,运行:

python setup.py install

然后跑了一堆东西,最后是这样的:

安装完成!

3.3 安装fvcore库

fvcore库的简介 fvcore是一个轻量级的核心库,它提供了在各种计算机视觉框架(如Detectron2)中共享的最常见和最基本的功能。这个库基于Python 3.6+和PyTorch。这个库中的所有组件都经过了类型注释、测试和基准测试。Facebook 的人工智能实验室即FAIR的计算机视觉组负责维护这个库。

github地址:https://github.com/facebookresearch/fvcore

执行命令

conda install -c fvcore -c iopath -c conda-forge fvcore

3.4 安装Detectron2环境需要其他库

安装pycocotools

pip install pycocotools

安装cv2

pip install opencv-python

安装 antlr4

pip install antlr4-python3-runtime

安装future

pip install future

安装protobuf

pip install protobuf

安装absl

pip install absl-py

安装tensorboard

pip install tensorboard

安装pydot

pip install pydot

安装scipy

pip install scipy -i https://pypi.tuna.tsinghua.edu.cn/simple

3.5 编译Sparse R-CNN

进入Sparse R-CNN目录,目录根据自己的实际情况更改。

cd D:\SparseR-CNN-main

编译Detectron2和Sparse R-CNN

python setup.py build develop

看到如下信息,则表明安装完成,如果缺少库的情况,则需要安装库,再编译,直到编译成功!

4、测试环境

新建input_img和output_img文件夹,imgs文件夹存放待测试的图片。

图片如下:

下载模型“r50_100pro_3x_model.pth”,将其放到“projects/SparseRCNN”目录下面。

执行命令:

python demo/demo.py --config-file projects/SparseRCNN/configs/sparsercnn.res50.100pro.3x.yaml --input imgs/*.jpg --output imgout --opts MODEL.WEIGHTS projects/SparseRCNN/r50_100pro_3x_model.pth

运行结果:

能够运行demo说明环境已经没有问题了。

5、制作数据集

本次采用的数据集是Labelme标注的数据集,地址:链接:https://pan.baidu.com/s/1nxo9-NpNWKK4PwDZqwKxGQ 提取码:kp4e,需要将其转为COCO格式的数据集。转换代码如下:

新建labelme2coco.py

import argparse
import json
import matplotlib.pyplot as plt
import skimage.io as io
import cv2
from labelme import utils
import numpy as np
import glob
import PIL.ImageREQUIRE_MASK = False
labels = {'aircraft': 1, 'oiltank': 2}class labelme2coco(object):def __init__(self, labelme_json=[], save_json_path='./new.json'):''':param labelme_json: the list of all labelme json file paths:param save_json_path: the path to save new json'''self.labelme_json = labelme_jsonself.save_json_path = save_json_pathself.images = []self.categories = []self.annotations = []# self.data_coco = {}self.label = []self.annID = 1self.height = 0self.width = 0self.require_mask = REQUIRE_MASKself.save_json()def data_transfer(self):for num, json_file in enumerate(self.labelme_json):if not json_file == self.save_json_path:with open(json_file, 'r') as fp:data = json.load(fp)self.images.append(self.image(data, num))for shapes in data['shapes']:print("label is ")print(shapes['label'])label = shapes['label']#                    if label[1] not in self.label:if label not in self.label:print("find new category: ")self.categories.append(self.categorie(label))print(self.categories)# self.label.append(label[1])self.label.append(label)points = shapes['points']self.annotations.append(self.annotation(points, label, num))self.annID += 1def image(self, data, num):image = {}img = utils.img_b64_to_arr(data['imageData'])height, width = img.shape[:2]img = Noneimage['height'] = heightimage['width'] = widthimage['id'] = num + 1image['file_name'] = data['imagePath'].split('/')[-1]self.height = heightself.width = widthreturn imagedef categorie(self, label):categorie = {}categorie['supercategory'] = label#        categorie['supercategory'] = labelcategorie['id'] = labels[label]  # 0 默认为背景categorie['name'] = labelreturn categoriedef annotation(self, points, label, num):annotation = {}print(points)x1 = points[0][0]y1 = points[0][1]x2 = points[1][0]y2 = points[1][1]contour = np.array([[x1, y1], [x2, y1], [x2, y2], [x1, y2]])  # points = [[x1, y1], [x2, y2]] for rectanglecontour = contour.astype(int)area = cv2.contourArea(contour)print("contour is ", contour, " area = ", area)annotation['segmentation'] = [list(np.asarray([[x1, y1], [x2, y1], [x2, y2], [x1, y2]]).flatten())]# [list(np.asarray(contour).flatten())]annotation['iscrowd'] = 0annotation['area'] = areaannotation['image_id'] = num + 1if self.require_mask:annotation['bbox'] = list(map(float, self.getbbox(points)))else:x1 = points[0][0]y1 = points[0][1]width = points[1][0] - x1height = points[1][1] - y1annotation['bbox'] = list(np.asarray([x1, y1, width, height]).flatten())annotation['category_id'] = self.getcatid(label)annotation['id'] = self.annIDreturn annotationdef getcatid(self, label):for categorie in self.categories:#            if label[1]==categorie['name']:if label == categorie['name']:return categorie['id']return -1def getbbox(self, points):polygons = pointsmask = self.polygons_to_mask([self.height, self.width], polygons)return self.mask2box(mask)def mask2box(self, mask):# np.where(mask==1)index = np.argwhere(mask == 1)rows = index[:, 0]clos = index[:, 1]left_top_r = np.min(rows)  # yleft_top_c = np.min(clos)  # xright_bottom_r = np.max(rows)right_bottom_c = np.max(clos)return [left_top_c, left_top_r, right_bottom_c - left_top_c, right_bottom_r - left_top_r]def polygons_to_mask(self, img_shape, polygons):mask = np.zeros(img_shape, dtype=np.uint8)mask = PIL.Image.fromarray(mask)xy = list(map(tuple, polygons))PIL.ImageDraw.Draw(mask).polygon(xy=xy, outline=1, fill=1)mask = np.array(mask, dtype=bool)return maskdef data2coco(self):data_coco = {}data_coco['images'] = self.imagesdata_coco['categories'] = self.categoriesdata_coco['annotations'] = self.annotationsreturn data_cocodef save_json(self):print("in save_json")self.data_transfer()self.data_coco = self.data2coco()print(self.save_json_path)json.dump(self.data_coco, open(self.save_json_path, 'w'), indent=4)labelme_json = glob.glob('LabelmeData/*.json')
from sklearn.model_selection import train_test_splittrainval_files, test_files = train_test_split(labelme_json, test_size=0.2, random_state=55)
import osif not os.path.exists("projects/SparseRCNN/datasets/coco/annotations"):os.makedirs("projects/SparseRCNN/datasets/coco/annotations/")
if not os.path.exists("projects/SparseRCNN/datasets/coco/train2017"):os.makedirs("projects/SparseRCNN/datasets/coco/train2017")
if not os.path.exists("projects/SparseRCNN/datasets/coco/val2017"):os.makedirs("projects/SparseRCNN/datasets/coco/val2017")
labelme2coco(trainval_files, 'projects/SparseRCNN/datasets/coco/annotations/instances_train2017.json')
labelme2coco(test_files, 'projects/SparseRCNN/datasets/coco/annotations/instances_val2017.json')
import shutilfor file in trainval_files:shutil.copy(os.path.splitext(file)[0] + ".jpg", "projects/SparseRCNN/datasets/coco/train2017/")
for file in test_files:shutil.copy(os.path.splitext(file)[0] + ".jpg", "projects/SparseRCNN/datasets/coco/val2017/")

6、配置训练环境

6.1 更改预训练模型的size

在projects/SparseRCNN目录,新建change_model_size.py文件

import torch
import numpy as np
import pickle
num_class = 2
pretrained_weights  = torch.load('r50_100pro_3x_model.pth')pretrained_weights["head.head_series.0.class_logits.weight"].resize_(num_class,256)
pretrained_weights["head.head_series.0.class_logits.bias"].resize_(num_class)
pretrained_weights["head.head_series.1.class_logits.weight"].resize_(num_class,256)
pretrained_weights["head.head_series.1.class_logits.bias"].resize_(num_class)
pretrained_weights["head.head_series.2.class_logits.weight"].resize_(num_class,256)
pretrained_weights["head.head_series.2.class_logits.bias"].resize_(num_class)
pretrained_weights["head.head_series.3.class_logits.weight"].resize_(num_class,256)
pretrained_weights["head.head_series.3.class_logits.bias"].resize_(num_class)
pretrained_weights["head.head_series.4.class_logits.weight"].resize_(num_class,256)
pretrained_weights["head.head_series.4.class_logits.bias"].resize_(num_class)
pretrained_weights["head.head_series.5.class_logits.weight"].resize_(num_class,256)
pretrained_weights["head.head_series.5.class_logits.bias"].resize_(num_class)
torch.save(pretrained_weights, "model_%d.pth"%num_class)

这个文件的目的是修改模型输出的size,numclass按照本次打算训练的数据集的类别设置。

6.2 修改config参数

路径:“detectron2/engine/defaults.py”

--config-file:模型的配置文件,SparseRCNN的模型配置文件放在“projects/SparseRCNN/configs”下面。名字和预训练模型对应。

parser.add_argument("--config-file", default="./configs/sparsercnn.res50.100pro.3x.yaml", metavar="FILE", help="path to config file")

resume 是否再次,训练,如果设置为true,则接着上次训练的结果训练。所以第一次训练不用设置。

parser.add_argument(
"--resume",action="store_true",help="Whether to attempt to resume from the checkpoint directory. "
"See documentation of `DefaultTrainer.resume_or_load()` for what it means.",
)

--num-gpus,gpu的个数,如果只有一个设置为1,如果有多个,可以自己设置想用的个数。

parser.add_argument("--num-gpus", type=int, default=1, help="number of gpus *per machine*")

opts指的是yaml文件的参数。

上面的参数可以设置,也可以不设置,设置之后可以直接运行不用再考虑设置参数,如果不设置每次训练的时候配置一次参数。

修改类别,文件路径“projects/SparseRCNN/config.py”,

cfg.MODEL.SparseRCNN.NUM_CLASSES = 2

修改yaml文件参数

sparsercnn.res50.100pro.3x.yaml中修改预训练模型的路径。

WEIGHTS: "model_2.pth"

BASE_LR:设置学习率。

STEPS:设置训练多少步之后调整学习率。

MAX_ITER:最大迭代次数。

CHECKPOINT_PERIOD:设置迭代多少次保存一次模型

IMS_PER_BATCH:batchsize的大小,根据显存大小设置。

NUM_CLASSES:数据集中物体类别的种类。

NUM_PROPOSALS:提议框的个数。

BASE_LR: 0.00025#在Base-SparseRCNN.yaml中
IMS_PER_BATCH: 2#在Base-SparseRCNN.yaml中
NUM_CLASSES:2
STEPS: (21000, 25000)
MAX_ITER: 54000
CHECKPOINT_PERIOD: 5000

6.3 修改train_net.py

主要修改该setup函数,增加数据集注册。

NUM_CLASSES=2
def setup(args):
"""
Create configs and perform basic setups.
"""register_coco_instances("train", {}, "datasets/coco/annotations/instances_train2017.json",
"datasets/coco/train2017")register_coco_instances("test", {}, "datasets/coco/annotations/instances_val2017.json",
"datasets/coco/val2017")cfg = get_cfg()add_sparsercnn_config(cfg)cfg.merge_from_file(args.config_file)cfg.merge_from_list(args.opts)cfg.DATASETS.TRAIN = ("train",)cfg.DATASETS.TEST = ("test",)cfg.MODEL.SparseRCNN.NUM_CLASSES = NUM_CLASSEScfg.MODEL.ROI_HEADS.NUM_CLASSES=NUM_CLASSEScfg.freeze()default_setup(cfg, args)
return cfg

还要修改detectron2/engine/launch.py,在launch函数下面增加一句

dist.init_process_group('gloo', init_method='file://tmp/somefile', rank=0, world_size=1)

如下图:

这句话的作用是初始化分布式训练,因为我们没有使用分布式,所以没有初始化,但是不初始化就会报错,所以加上这句。

7、训练

两种启动方式:

第一种,命令行:进入“projects/SparseRCNN/”目录下,执行:

python train_net.py

第二种,直接在pycharm 直接运行train_net.py.

训练结果:

从训练结果上看,效果确实不错,和CenterNet2的结果相差不大,不过模型很大,大约有1.2G,比CenterNet2的模型大了一倍多。

8、测试

修改demo/demo.py

8.1 修改setup_cfg函数

在红框的位置增加代码,详细如下面的代码。

NUM_CLASSES=2
def setup_cfg(args):
# load config from file and command-line argumentscfg = get_cfg()
from projects.SparseRCNN.sparsercnn import add_sparsercnn_configadd_sparsercnn_config(cfg)cfg.MODEL.SparseRCNN.NUM_CLASSES = NUM_CLASSEScfg.MODEL.ROI_HEADS.NUM_CLASSES = NUM_CLASSEScfg.merge_from_file(args.config_file)cfg.merge_from_list(args.opts)
# Set score_threshold for builtin modelscfg.MODEL.RETINANET.SCORE_THRESH_TEST = args.confidence_thresholdcfg.MODEL.ROI_HEADS.SCORE_THRESH_TEST = args.confidence_thresholdcfg.MODEL.PANOPTIC_FPN.COMBINE.INSTANCES_CONFIDENCE_THRESH = args.confidence_thresholdcfg.freeze()
return cfg

8.2 修改显示类别

在demo/predictor.py

代码:

visualizer.metadata.thing_classes[:10] = ["aircraft", "oiltank"]

然后进入SparseR-CNN-main目录,执行如下命令:

python demo/demo.py --config-file projects/SparseRCNN/configs/sparsercnn.res50.100pro.3x.yaml --input img/*jpg --output out --opts MODEL.WEIGHTS projects/Spa
rseRCNN/output/model_final.pth

运行结果:

References

[1] R50-C4: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-Detection/faster_rcnn_R_50_C4_1x.yaml
[2] model: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_50_C4_1x/137257644/model_final_721ade.pkl
[3] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_50_C4_1x/137257644/metrics.json
[4] R50-DC5: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-Detection/faster_rcnn_R_50_DC5_1x.yaml
[5] model: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_50_DC5_1x/137847829/model_final_51d356.pkl
[6] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_50_DC5_1x/137847829/metrics.json
[7] R50-FPN: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-Detection/faster_rcnn_R_50_FPN_1x.yaml
[8] model: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_50_FPN_1x/137257794/model_final_b275ba.pkl
[9] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_50_FPN_1x/137257794/metrics.json
[10] R50-C4: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-Detection/faster_rcnn_R_50_C4_3x.yaml
[11] model: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_50_C4_3x/137849393/model_final_f97cb7.pkl
[12] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_50_C4_3x/137849393/metrics.json
[13] R50-DC5: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-Detection/faster_rcnn_R_50_DC5_3x.yaml
[14] model: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_50_DC5_3x/137849425/model_final_68d202.pkl
[15] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_50_DC5_3x/137849425/metrics.json
[16] R50-FPN: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-Detection/faster_rcnn_R_50_FPN_3x.yaml
[17] model: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_50_FPN_3x/137849458/model_final_280758.pkl
[18] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_50_FPN_3x/137849458/metrics.json
[19] R101-C4: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-Detection/faster_rcnn_R_101_C4_3x.yaml
[20] model: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_101_C4_3x/138204752/model_final_298dad.pkl
[21] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_101_C4_3x/138204752/metrics.json
[22] R101-DC5: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-Detection/faster_rcnn_R_101_DC5_3x.yaml
[23] model: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_101_DC5_3x/138204841/model_final_3e0943.pkl
[24] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_101_DC5_3x/138204841/metrics.json
[25] R101-FPN: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-Detection/faster_rcnn_R_101_FPN_3x.yaml
[26] model: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_101_FPN_3x/137851257/model_final_f6e8b1.pkl
[27] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_R_101_FPN_3x/137851257/metrics.json
[28] X101-FPN: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-Detection/faster_rcnn_X_101_32x8d_FPN_3x.yaml
[29] model: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_X_101_32x8d_FPN_3x/139173657/model_final_68b088.pkl
[30] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/faster_rcnn_X_101_32x8d_FPN_3x/139173657/metrics.json
[31] R50: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-Detection/retinanet_R_50_FPN_1x.yaml
[32] model: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/retinanet_R_50_FPN_1x/137593951/model_final_b796dc.pkl
[33] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/retinanet_R_50_FPN_1x/137593951/metrics.json
[34] R50: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-Detection/retinanet_R_50_FPN_3x.yaml
[35] model: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/retinanet_R_50_FPN_3x/137849486/model_final_4cafe0.pkl
[36] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/retinanet_R_50_FPN_3x/137849486/metrics.json
[37] R101: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-Detection/retinanet_R_101_FPN_3x.yaml
[38] model: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/retinanet_R_101_FPN_3x/138363263/model_final_59f53c.pkl
[39] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/retinanet_R_101_FPN_3x/138363263/metrics.json
[40] RPN R50-C4: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-Detection/rpn_R_50_C4_1x.yaml
[41] model: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/rpn_R_50_C4_1x/137258005/model_final_450694.pkl
[42] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/rpn_R_50_C4_1x/137258005/metrics.json
[43] RPN R50-FPN: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-Detection/rpn_R_50_FPN_1x.yaml
[44] model: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/rpn_R_50_FPN_1x/137258492/model_final_02ce48.pkl
[45] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/rpn_R_50_FPN_1x/137258492/metrics.json
[46] Fast R-CNN R50-FPN: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-Detection/fast_rcnn_R_50_FPN_1x.yaml
[47] model: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/fast_rcnn_R_50_FPN_1x/137635226/model_final_e5f7ce.pkl
[48] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-Detection/fast_rcnn_R_50_FPN_1x/137635226/metrics.json
[49] R50-C4: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-InstanceSegmentation/mask_rcnn_R_50_C4_1x.yaml
[50] model: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_50_C4_1x/137259246/model_final_9243eb.pkl
[51] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_50_C4_1x/137259246/metrics.json
[52] R50-DC5: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-InstanceSegmentation/mask_rcnn_R_50_DC5_1x.yaml
[53] model: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_50_DC5_1x/137260150/model_final_4f86c3.pkl
[54] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_50_DC5_1x/137260150/metrics.json
[55] R50-FPN: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_1x.yaml
[56] model: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_1x/137260431/model_final_a54504.pkl
[57] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_1x/137260431/metrics.json
[58] R50-C4: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-InstanceSegmentation/mask_rcnn_R_50_C4_3x.yaml
[59] model: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_50_C4_3x/137849525/model_final_4ce675.pkl
[60] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_50_C4_3x/137849525/metrics.json
[61] R50-DC5: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-InstanceSegmentation/mask_rcnn_R_50_DC5_3x.yaml
[62] model: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_50_DC5_3x/137849551/model_final_84107b.pkl
[63] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_50_DC5_3x/137849551/metrics.json
[64] R50-FPN: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_3x.yaml
[65] model: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_3x/137849600/model_final_f10217.pkl
[66] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_3x/137849600/metrics.json
[67] R101-C4: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-InstanceSegmentation/mask_rcnn_R_101_C4_3x.yaml
[68] model: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_101_C4_3x/138363239/model_final_a2914c.pkl
[69] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_101_C4_3x/138363239/metrics.json
[70] R101-DC5: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-InstanceSegmentation/mask_rcnn_R_101_DC5_3x.yaml
[71] model: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_101_DC5_3x/138363294/model_final_0464b7.pkl
[72] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_101_DC5_3x/138363294/metrics.json
[73] R101-FPN: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-InstanceSegmentation/mask_rcnn_R_101_FPN_3x.yaml
[74] model: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_101_FPN_3x/138205316/model_final_a3ec72.pkl
[75] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_R_101_FPN_3x/138205316/metrics.json
[76] X101-FPN: https://github.com/facebookresearch/detectron2/blob/master/configs/COCO-InstanceSegmentation/mask_rcnn_X_101_32x8d_FPN_3x.yaml
[77] model: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_X_101_32x8d_FPN_3x/139653917/model_final_2d9806.pkl
[78] metrics: https://dl.fbaipublicfiles.com/detectron2/COCO-InstanceSegmentation/mask_rcnn_X_101_32x8d_FPN_3x/139653917/metrics.json

本文仅做学术分享,如有侵权,请联系删文。

重磅!计算机视觉工坊-学习交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有ORB-SLAM系列源码学习、3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、深度估计、学术交流、求职交流等微信群,请扫描下面微信号加群,备注:”研究方向+学校/公司+昵称“,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进去相关微信群。原创投稿也请联系。

▲长按加微信群或投稿

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的视频课程(三维重建系列三维点云系列结构光系列手眼标定相机标定、激光/视觉SLAM、自动驾驶等)、知识点汇总、入门进阶学习路线、最新paper分享、疑问解答五个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近4000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

圈里有高质量教程资料、可答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~

全网首发!超全SparseR-CNN实战教程相关推荐

  1. 最全MySQL8.0实战教程 14 MySQL的存储过程 14.2 入门案例

    最全MySQL8.0实战教程 文章目录 最全MySQL8.0实战教程 14 MySQL的存储过程 14.2 入门案例 14.2.1 格式 14.2.2 操作 - 数据准备 14.2.3 操作 - 创建 ...

  2. 最全MySQL8.0实战教程 14 MySQL的存储过程 14.1 概述

    最全MySQL8.0实战教程 文章目录 最全MySQL8.0实战教程 14 MySQL的存储过程 14.1 概述 14.1.1 什么是存储过程 14.1.2 特性 [黑马程序员MySQL知识精讲+my ...

  3. 最全MySQL8.0实战教程 2 SQL语言基础

    最全MySQL8.0实战教程 文章目录 最全MySQL8.0实战教程 2 SQL语言基础 2.1 SQL的概述 2.2 SQL的特点 2.3 SQL语言的组成 2.4 语法特点 [黑马程序员MySQL ...

  4. 最全MySQL8.0实战教程 22 MySQL的优化 22.4 explain分析执行计划 22.4.1 基本使用

    最全MySQL8.0实战教程 文章目录 最全MySQL8.0实战教程 22 MySQL的优化 22.4 explain分析执行计划 22.4.1 基本使用 [黑马程序员MySQL知识精讲+mysql实 ...

  5. 最全MySQL8.0实战教程

    文章目录 最全MySQL8.0实战教程 一.前言 1.计算机语言概述 2.SQL的概述 2.1 语法特点 2.2 MySQL的安装 2.2.1 方式1:解压配置方式 2.2.2 方式2:步骤安装方式 ...

  6. STM32全链路开发实战教程专栏总目录(2022.10.19更新)

    文章目录 专栏说明 一.开发环境相关 二.STM32裸机开发 STM32CubeMX系列教程 玩转嵌入式屏幕显示 嵌入式开源小组件的使用 mbedtls开源安全库 DW1000 UWB芯片开发笔记 L ...

  7. 超全面的Java全套教程分享_动力节点完整版视频教程

    各种各样的编程语言不断崛起,但唯有Java是牢牢占据着老大的位置,目前几乎90%以上的大中型互联网应用系统在服务器端开发首选Java. 因此,也是吸引了不少年轻人投入到Java的学习之中. 但不得不说 ...

  8. 全网首发 | 第一个opencv_contrib扩展模块中文教程限时领取

    点击上方"小白学视觉",选择"星标"公众号 重磅干货,第一时间送达 OpenCV是学习计算机视觉的重要工具之一,然而多年以来,在深度学习的deBuff下,Ope ...

  9. 超全!Tkinter 使用教程!4000字!

    人生苦短,快学Python! 本期案例是带着大家制作一个属于自己的GUI图形化界面->用于设计签名的哦(效果如下图),是不是感觉很好玩,是不是很想学习呢?限于篇幅,今天我们首先详细讲述一下Tki ...

  10. 【全网首发最全】首届盘古石杯全国电子数据取证大赛晋级赛write up 2023年奇安信取证比赛 高清截图

    2023盘古石杯晋级赛write up技术交流wechat N34939 高清截图解析 引用xiang同学https://mp.weixin.qq.com/s/NLuj2g7vrZHCaitUjUz5 ...

最新文章

  1. String创建方式及其区别(快速了解)
  2. R语言广义加性模型GAMs:可视化每个变量的样条函数、样条函数与变量与目标变量之间的平滑曲线比较、并进行多变量的归一化比较、测试广义线性加性模型GAMs在测试集上的表现(防止过拟合)
  3. 访问远程数据库,把远程数据库当做本地库来用
  4. Python进阶07 函数对象
  5. JAVA 基础 / 第二十九课:接口与继承 / JAVA中的对象转型
  6. RESTEasy教程第1部分:基础
  7. PHP 错误与异常 笔记与总结(12 )异常
  8. Win11开始菜单没反应怎么办 Win11开始菜单点了没反应解决方法
  9. 蜕变成蝶~Linux设备驱动中的并发控制
  10. Qt--自定义Delegate
  11. mybatis-plus 自定义UpdateWrapper(一)实现列自增
  12. CSDN 修改名字昵称以及ID 修改博客标题 - 告别自动生成的 id (亲测有效!)
  13. DETR | 基于匈牙利算法的样本分配策略
  14. 《工业控制系统信息安全防护指南》实施建议(下)
  15. 《一个程序员的奋斗史》读后感:从码农谈起
  16. 专为《巫师3》打造 次世代RedEngine 3引擎公布
  17. 《计算机的硬件系统》教案,计算机硬件系统的组成教案
  18. Visual Studio2022 运行代码时“发生生成错误,是否继续并运行上次的成功生成”
  19. 阿里云后台部署全过程-6-HTTPS原理及配置
  20. 使用Verilog来实现奇数分频

热门文章

  1. PHP获得指定日期所在月的第一天和最后一天
  2. [BZOJ2038]小Z的袜子(莫队算法)
  3. 在dm355上开发DVR杂记(一):跟ip地址有关
  4. @Transactional(rollbackFor=Exception.class)的作用
  5. Hbuilder如何创建并运行Vue项目
  6. JS实现Sql语句格式化效果
  7. vxp grandle 自动更新应用
  8. Springboot集成Quartz和RabbitMQ时设置为不自动运行
  9. C++11 实现线程池
  10. C++继承之菱形继承