深度学习Anchor Boxes原理与实战技术

目标检测算法通常对输入图像中的大量区域进行采样,判断这些区域是否包含感兴趣的目标,并调整这些区域的边缘,以便更准确地预测目标的地面真实边界框。不同的模型可能使用不同的区域采样方法。在这里,我们介绍一种这样的方法:它生成多个大小和纵横比不同的边框,同时以每个像素为中心。这些边界框称为锚框。我们将在下面几节中练习基于锚盒的对象检测。

首先,导入本文所需的包或模块。在这里,我们修改了NumPy的打印精度。因为打印张量实际上调用了NumPy的print函数,所以本文打印的张量中的浮点数更简洁。

%matplotlib inline

from d2l import mxnet as d2l

from mxnet import gluon, image, np, npx

np.set_printoptions(2)

npx.set_np()

1. Generating Multiple Anchor Boxes

假设输入图像的高度为(h),宽度为(w)。我们生成以图像的每个像素为中心的不同形状的锚框。假设大小为(sin (0, 1]),纵横比为(r>0),锚框的宽度和高度分别为(wssqrt{r})和(hs/sqrt{r})。当中心位置给定时,确定一个已知宽度和高度的锚箱。

下面我们设置了一组大小(s_1,ldots,su n)和一组纵横比(ru 1,ldots,ru m)。如果我们使用以每个像素为中心的所有尺寸和纵横比的组合,输入图像将有总共(whnm)个锚框。虽然这些锚盒可以覆盖所有的地面真实边界盒,但计算复杂度往往过高。因此,我们通常只对包含(s_1) 或 (r_1)大小和纵横比的组合感兴趣,即:

[(s_1, r_1), (s_1, r_2), ldots, (s_1, r_m), (s_2, r_1), (s_3, r_1), ldots, (s_n, r_1).]

也就是说,以同一像素为中心的锚框数量为(n+m-1)。对于整个输入图像,我们将生成总共(wh(n+m-1))个锚框。

上述锚箱生成方法已在multibox_prior函数中实现。我们指定输入、一组大小和一组纵横比,此函数将返回输入的所有锚框。

img = image.imread('../img/catdog.jpg').asnumpy()

h, w = img.shape[0:2]

print(h, w)

X = np.random.uniform(size=(1, 3, h, w)) # Construct input data

Y = npx.multibox_prior(X, sizes=[0.75, 0.5, 0.25], ratios=[1, 2, 0.5])

Y.shape

561 728

(1, 2042040, 4)

我们可以看到返回的锚框变量y的形状是(批大小,锚框数量,4)。将锚框变量y的形状更改为(图像高度、图像宽度、以同一像素为中心的锚框数量,4)后,我们可以获得所有以指定像素位置为中心的锚定框。在下面的示例中,我们访问位于(250,250)中心的第一个锚定框。它有四个元素:锚框左上角的(x,y)轴坐标和右下角的(x,y)轴坐标。(x)和(y)轴的坐标值分别除以图像的宽度和高度,因此值范围在0和1之间。

boxes = Y.reshape(h, w, 5, 4)

boxes[250, 250, 0, :]

array([0.06, 0.07, 0.63, 0.82])

为了描述图像中所有以一个像素为中心的锚框,我们首先定义show_bboxes函数来绘制图像上的多个边界框。

#@save

def show_bboxes(axes, bboxes, labels=None, colors=None):

"""Show bounding boxes."""

def _make_list(obj, default_values=None):

if obj is None:

obj = default_values

elif not isinstance(obj, (list, tuple)):

obj = [obj]

return obj

labels = _make_list(labels)

colors = _make_list(colors, ['b', 'g', 'r', 'm', 'c'])

for i, bbox in enumerate(bboxes):

color = colors[i % len(colors)]

rect = d2l.bbox_to_rect(bbox.asnumpy(), color)

axes.add_patch(rect)

if labels and len(labels) > i:

text_color = 'k' if color == 'w' else 'w'

axes.text(rect.xy[0], rect.xy[1], labels[i],

va='center', ha='center', fontsize=9, color=text_color,

bbox=dict(facecolor=color, lw=0))

正如我们看到的,在x轴和y轴的值除以坐标。在绘制图像时,我们需要恢复锚定框的原始坐标值,从而定义变量bbox_scale。现在,我们可以在图像中以(250,250)为中心绘制所有的锚框。如您所见,蓝色锚框大小为0.75,纵横比为1,很好地覆盖了图像中的狗。

d2l.set_figsize((3.5, 2.5))

bbox_scale = np.array((w, h, w, h))

fig = d2l.plt.imshow(img)

show_bboxes(fig.axes, boxes[250, 250, :, :] * bbox_scale,

['s=0.75, r=1', 's=0.5, r=1', 's=0.25, r=1', 's=0.75, r=2',

's=0.75, r=0.5'])

2. Intersection over Union

我们刚刚提到了锚盒很好地覆盖了图像中的狗。如果已知目标的地面真实边界框,这里的“井”如何量化?一种直观的方法是测量锚盒与地面真实边界盒之间的相似度。我们知道Jaccard索引可以度量两个集合之间的相似性。给定集合(mathcal{A})和(mathcal{B}),它们的Jaccard索引是它们的交集大小除以它们的并集大小:

[J(mathcal{A},mathcal{B}) = frac{left|mathcal{A} cap mathcal{B}right|}{left| mathcal{A} cup mathcal{B}right|}.]

实际上,我们可以将边界框的像素区域视为像素集合。这样,我们就可以通过像素集的Jaccard索引来度量两个边界框的相似度。当我们测量两个边界框的相似性时,我们通常将Jaccard索引称为intersection over union(IoU),即两个边界框的相交面积与并集面积的比值,如图13.4.1所示。IoU的值范围在0到1之间:0表示两个边界框之间没有重叠的像素,而1表示两个边界框相等。

Fig. 1. IoU is the ratio of the intersecting area to the union area of two bounding boxes.

将使用IoU来测量锚定框和地面真实边界框之间以及不同锚定框之间的相似性。

3. Labeling Training Set Anchor Boxes

在训练集中,我们将每个锚盒视为一个训练示例。为了训练目标检测模型,我们需要为每个锚框标记两种类型的标签:第一种是锚框中包含的目标的类别(类别),第二种是地面真相边界框相对于锚定框的偏移量(offset)。在目标检测中,首先生成多个锚框,预测每个锚框的类别和偏移量,根据预测的偏移量调整锚定框的位置,得到用于预测的边界框,最后过滤出需要输出的预测边界框。

我们知道,在目标检测训练集中,每幅图像都标有地面真实边界框的位置和所包含目标的类别。锚盒生成后,我们主要根据与锚盒相似的地面真实边界框的位置和类别信息对锚盒进行标记。那么,我们如何将地面真实边界框指定给与它们类似的锚框呢?

Fig 2. Assign ground-truth bounding boxes to anchor boxes.

ground_truth = np.array([[0, 0.1, 0.08, 0.52, 0.92],

[1, 0.55, 0.2, 0.9, 0.88]])

anchors = np.array([[0, 0.1, 0.2, 0.3], [0.15, 0.2, 0.4, 0.4],

[0.63, 0.05, 0.88, 0.98], [0.66, 0.45, 0.8, 0.8],

[0.57, 0.3, 0.92, 0.9]])

fig = d2l.plt.imshow(img)

show_bboxes(fig.axes, ground_truth[:, 1:] * bbox_scale, ['dog', 'cat'], 'k')

show_bboxes(fig.axes, anchors * bbox_scale, ['0', '1', '2', '3', '4']);

我们可以使用multibox_target函数标记锚定框的类别和偏移量。此函数用于将背景类别设置为0,并将目标类别的整数索引从零递增1(1表示dog,2表示cat)。我们在锚定框和底真值边界框中添加实例维数,并使用expand_dims函数构造形状为(batch size批次大小、类别数包括背景、锚框数量)的随机预测结果。

labels = npx.multibox_target(np.expand_dims(anchors, axis=0),

np.expand_dims(ground_truth, axis=0),

np.zeros((1, 3, 5)))

返回的结果中有三项,都是张量格式。第三项由标记为锚定框的类别表示。

labels[2]

array([[0., 1., 2., 0., 2.]])

我们根据锚框和地面真实边界框在图像中的位置来分析这些标记类别。首先,在所有的“锚框-地面真实边界框”对中,锚框(A_4)到cat的地面真相边界框的IoU最大,因此锚框(A_4)的类别被标记为cat。

返回值的第二项是一个mask变量,其形状为(批大小,锚框数量的四倍)。mask变量中的元素与每个定位框的四个偏移值一一对应。因为我们不关心背景检测,所以负类的偏移量不应该影响目标函数。通过乘以元素,mask变量中的0可以在计算目标函数之前过滤掉负的类偏移量。

labels[1]

array([[0., 0., 0., 0., 1., 1., 1., 1., 1., 1., 1., 1., 0., 0., 0., 0.,

1., 1., 1., 1.]])

返回的第一项是为每个定位框标记的四个偏移量值,负类定位框的偏移量标记为0。

labels[0]

array([[ 0.00e+00, 0.00e+00, 0.00e+00, 0.00e+00, 1.40e+00, 1.00e+01,

2.59e+00, 7.18e+00, -1.20e+00, 2.69e-01, 1.68e+00, -1.57e+00,

0.00e+00, 0.00e+00, 0.00e+00, 0.00e+00, -5.71e-01, -1.00e+00,

-8.94e-07, 6.26e-01]])

4. Bounding Boxes for Prediction

在模型预测阶段,我们首先为图像生成多个锚框,然后逐个预测这些锚框的类别和偏移量。然后,基于锚定框及其预测偏移量得到预测边界框。当有多个锚盒时,同一个目标可以输出许多相似的预测边界框。为了简化结果,我们可以去掉类似的预测边界框。通常称为非最大值抑制(NMS)。

接下来,我们将看一个详细的例子。首先,建造四个锚箱。为了简单起见,我们假设预测的偏移量都为0。这意味着预测边界框是锚定框。最后,我们为每个类别构造一个预测概率。

anchors = np.array([[0.1, 0.08, 0.52, 0.92], [0.08, 0.2, 0.56, 0.95],

[0.15, 0.3, 0.62, 0.91], [0.55, 0.2, 0.9, 0.88]])

offset_preds = np.array([0] * anchors.size)

cls_probs = np.array([[0] * 4, # Predicted probability for background

[0.9, 0.8, 0.7, 0.1], # Predicted probability for dog

[0.1, 0.2, 0.3, 0.9]]) # Predicted probability for cat

在图像上打印预测边界框及其置信级别。

fig = d2l.plt.imshow(img)

show_bboxes(fig.axes, anchors * bbox_scale,

['dog=0.9', 'dog=0.8', 'dog=0.7', 'cat=0.9'])

我们使用multibox_detection函数来执行NMS,并将阈值设置为0.5。这将向张量输入添加一个示例维度。我们可以看到返回结果的形状是(批量大小,锚框数量,6)。每行的6个元素表示同一预测边界框的输出信息。第一个元素是预测的类别索引,从0开始(0表示dog,1表示cat)。值-1表示NMS中的背景或删除。第二个元素是预测边界框的置信度。其余四个元素是预测边界框左上角的(x,y)轴坐标和右下角的(x,y)轴坐标(值范围在0到1之间)。

output = npx.multibox_detection(

np.expand_dims(cls_probs, axis=0),

np.expand_dims(offset_preds, axis=0),

np.expand_dims(anchors, axis=0),

nms_threshold=0.5)

output

array([[[ 0. , 0.9 , 0.1 , 0.08, 0.52, 0.92],

[ 1. , 0.9 , 0.55, 0.2 , 0.9 , 0.88],

[-1. , 0.8 , 0.08, 0.2 , 0.56, 0.95],

[-1. , 0.7 , 0.15, 0.3 , 0.62, 0.91]]])

我们移除了类别1的预测边界框,并将NMS保留的结果可视化。

fig = d2l.plt.imshow(img)

for i in output[0].asnumpy():

if i[0] == -1:

continue

label = ('dog=', 'cat=')[int(i[0])] + str(i[1])

show_bboxes(fig.axes, [np.array(i[2:]) * bbox_scale], label)

在实际应用中,我们可以在执行NMS之前移除置信水平较低的预测边界框,从而减少NMS的计算量。我们还可以过滤NMS的输出,例如,只保留具有较高置信水平的结果作为最终输出。

5. Summary

我们以每个像素为中心,生成具有不同大小和纵横比的多个锚框。

IoU,也称为Jaccard索引,测量两个边界框的相似性。它是两个边界框的相交面积与并集面积之比。

在训练集中,我们为每个锚盒标记两种类型的标签:一种是锚盒中包含的目标类别,另一种是ground-truth真实边界框相对于锚盒的偏移量。

在预测时,我们可以使用非最大值抑制(NMS)去除相似的预测边界框,从而简化预测结果。

深度学习attention原理_深度学习Anchor Boxes原理与实战技术相关推荐

  1. 深度学习Anchor Boxes原理与实战技术

    深度学习Anchor Boxes原理与实战技术 目标检测算法通常对输入图像中的大量区域进行采样,判断这些区域是否包含感兴趣的目标,并调整这些区域的边缘,以便更准确地预测目标的地面真实边界框.不同的模型 ...

  2. 高级架构师_Docker_第2章_ Docker核心原理_ 第1节_Docker相关的虚拟化技术

    高级架构师_Docker_第2章_ Docker核心原理_ 第1节_Docker相关的虚拟化技术 文章目录 高级架构师_Docker_第2章_ Docker核心原理_ 第1节_Docker相关的虚拟化 ...

  3. 深度学习实践:计算机视觉_深度学习与传统计算机视觉技术:您应该选择哪个?

    深度学习实践:计算机视觉 计算机视觉 (Computer Vision) Deep Learning(DL) is undeniably one of the most popular tools u ...

  4. 深度学习数据更换背景_开始学习数据科学的最佳方法是了解其背景

    深度学习数据更换背景 数据科学教育 (DATA SCIENCE EDUCATION) 目录 (Table of Contents) The Importance of Context Knowledg ...

  5. 深度学习数据自动编码器_如何学习数据科学编码

    深度学习数据自动编码器 意见 (Opinion) When I first wanted to learn programming, I coded along to a 4 hour long Yo ...

  6. 深度学习 免费课程_深入学习深度学习,提供15项免费在线课程

    深度学习 免费课程 by David Venturi 大卫·文图里(David Venturi) 深入学习深度学习,提供15项免费在线课程 (Dive into Deep Learning with ...

  7. 深度学习数据集制作_深度学习时代的数据驱动建模之探讨

    数据驱动三维建模的方法分类 从方法学角度来看,数据驱动的三维建模大致可分为两类:参数方法(parametric methods)和非参数方法(non-parametric methods). 参数方法 ...

  8. 深度学习英文文献_深度学习中英文电子版(直领)

    <深度学习>中英文电子版链接: 链接:https://pan.baidu.com/s/1d4XqYNm-k91E3obKY-pcMA 提取码:znsf 或本公众号[智能算法]回复 &quo ...

  9. 深度学习课程大纲_深度学习必备前置课程:数据准备和特征工程上线啦

    "Garbage in, garbage out !",在计算机科学界一直广为流传!这句话放到数据科学上也同样成立,高质量的数据永远排在第一位.但是数据总会存在不完整.噪声.不一致 ...

最新文章

  1. 如何搭建高可用Redis服务
  2. Tungsten Fabric SDN — Service Chain — Basic Service Chain and Policy-Based Steering
  3. 英特尔裁员1.2万 CEO还在涨薪?
  4. 翻转单词顺序和左旋转字符串
  5. android绘制河流双曲线,项目三:河道测量试题库(13页)-原创力文档
  6. 一步步编写操作系统 45 linux的elf可执行文件中的段和节
  7. 智能车路径提取matlab_遗传算法求解多车型车辆路径问题
  8. java for while do-while 循环的经典题
  9. Entity Framework 实践系列 —— 搞好关系 - 两情相悦(双向一对一)
  10. BraftEditor:插入图片删除后在服务器将图片同步删除
  11. 如何删除Slader 大数智图PDF阅读器
  12. 遭遇Trojan PSW OnlineGames Trojan HiJack a Trojan PSW ZhuXian
  13. pythonweb数据可视化_基于Python实现交互式数据可视化的工具(用于Web)
  14. 游戏受计算机限制,玩游戏的时候突然电脑显示本地连接受限制或无连接怎么处理...
  15. 条件运算符(三目运算符)
  16. 都 2021 年了,你还在用 Kafka?快试试这个全新平台吧
  17. 毕业五年,想当初若没有入行测试,我是否还会如这般焦虑
  18. 用html表格形式制作个人信息,CSS写的简单个人信息登记表格示例
  19. 对于编程思想和能力有重大提升的书有哪些?
  20. 使用C#语言编写记事本程序

热门文章

  1. 推荐好用的JavaScript模块
  2. 游戏外挂是怎么炼成的
  3. Citrix Netscaler版本管理和选择
  4. Oracle 10g、11g :RAC关闭、启动、重启步骤
  5. Pechkin:html - pdf 利器
  6. python字典键值对转化为相应的变量名和变量值
  7. Unix整理笔记——安全性——里程碑M13
  8. 微软中文网,越办越好了!
  9. Spark交互式分析平台Apache Zeppelin的安装
  10. hadoop的序列化与java的序列化区别