手把手实现YOLOv3(一)
前言
本文翻译总结于scratch
目标检测是一个很古老的视觉问题,和其他视觉问题一样,它也从深度学习的发展中受益匪浅。
近年来,人们开发了许多用于对象检测的算法,其中包括YOLO,SSD,Mask RCNN和RetinaNet。
目录
文章目录
- 前言
- 目录
- 正文
- 先决条件
- 什么是YOLO?
- 全卷积神经网络
- 解释输出
- 锚框
- 做出预测
- 中心坐标
- 边框的尺寸
- 目标分数
- 类别置信度
- 跨不同尺度的预测。
- 输出处理
- 通过对象置信度进行阈值化
- 非最大抑制
- 我们的实现
正文
在过去的几个月中,我一直在实验室中改进对象检测算法。
这次体验最大的收获之一就是认识到学习目标检测的最佳方法是自己从头开始实现它。这就是本教程的目标。
我们将使用PyTorch来实现基于YOLOv3的对象检测器,YOLOv3是一种较快的对象检测算法。
本教程的代码可在Python 3.7和PyTorch 1.1.0上运行。
可以在此Github存储库
中找到全部内容。
本教程分为5部分:
第一部分(这一部分):了解YOLO的工作方式
第二部分:创建各层神经网路
第三部分:实现网络的前向传递
第四部分:目标阈值化和非最大抑制
第五部分:设计输入和输出管道
先决条件
您应该了解卷积神经网络如何工作。
这包括残差块,跃接层和上采样的知识。
什么是物体检测,边界框回归,IoU和非最大抑制。
PyTorch的基本用法。您应该能够轻松创建简单的神经网络。
如果您在任何方面有疑惑,我会在文章末尾提供链接。
什么是YOLO?
YOLO代表you only look once。
它是一种目标检测器,它使用深度卷积神经网络学习到的特征来检测对象。
在弄清代码之前,我们必须了解YOLO的工作方式。
全卷积神经网络
YOLO仅含卷积层,因此被称为全卷积神经网络(FCN).
它具有75个卷积层,以及跃连层和上采样层。
不含任何形式的池化层,而是使用跨度为2的卷积层对特征图进行下采样。
这有助于防止通常归因于池化层稀释的丢失。
作为FCN,YOLO不受输入图像的大小影响。但是,在实践中,由于各种问题,我们可能希望坚持一个固定的输入层,而这些问题只有在实现算法时你才能体会到。
这些问题中最大的一个问题是,如果我们要分批处理图像(批处理图像可以由GPU并行处理,从而提高了速度),我们需要拥有固定尺寸的所有图像。
这需要将多个图像串联成一个大组(将多个PyTorch张量串联成一个)
网络通过称为网络步幅的因素对图像进行下采样。
例如,如果网络的间隔为32,则大小为416 x 416的输入图像将产生大小为13 x 13的输出。
通常,网络中任何层的步幅等于网络输入图像除以输出的大小。
解释输出
通常,(与所有目标检测器一样)将由卷积层学习的特征传递到分类器/回归器上,该分类器/回归器进行目标预测(边界框的坐标,类标签等)
在YOLO中,预测是通过使用1 x 1卷积的卷积层完成的。
现在,首先要注意的是我们的输出是一个特征图。
由于我们使用了1 x 1卷积,因此预测图的大小恰好是其之前的特征图的大小。在YOLO v3(及其后续版本)中,解释此输出图的方式是每个单元格都可以预测固定数量的边界框。
尽管在技术上正确地称谓特征图中一个单元的术语是一个神经元,但为了让它在我们的上下文中更加直观,这里我们把它称为单元。
在数值上,特征图中有(B x(5 + C))个元素。
B表示每个单元格可以预测的边界框的数量。
根据本文,这些边界框中的每一个都可以专门用于检测某种对象。
每个边界框都有5 + C属性,这些属性描述每个边界框的中心坐标,尺寸,目标得分和C类置信度。
YOLO v3会为每个单元格预测3个边界框。
如果目标的中心落在该单元的接受域中,则您希望特征图的每个单元都可以通过其边界框之一来预测该对象。
(感受野是输入图像对细胞可见的区域。有关进一步的说明,请参见卷积神经网络上的链接)。
这与YOLO的训练方式有关,其中仅一个边界框负责检测任何给定的对象。
首先,我们必须确定此边界框属于哪个单元格。
为此,我们将输入图像划分为尺寸等于最终特征图尺寸的网格。
让我们考虑下面的示例,其中输入图像为416 x 416,网络的步幅为32。
如前所述,特征图的尺寸将为13 x13。然后将输入图像划分为13 x 13个像元。
图像点图,红点对侦测到狗很有用。
预测特征图
每个box的元素构成
然后,将包含对象地面真值框中心的单元格(在输入图像上)选择为负责预测对象的单元格。在图像中,标记为红色的单元格包含地面真值框(标记为黄色)的中心。
现在,红色单元格是网格第7行中的第7个单元格。现在,我们将特征图上第7行中的第7个单元格(特征图上的对应单元格)分配为负责检测狗的单元格。
现在,该单元格可以预测三个边界框。哪一个将被分配给狗的真实值标签?为了理解这一点,我们必须将锚的概念描述一遍。
请注意,我们在此讨论的单元格是预测功能图上的单元格。
我们将输入图像划分为一个网格只是为了确定预测特征图的哪个单元负责预测该网格。
锚框
预测边界框的宽度和高度的真实值可能很有意义,但是在实践中,这会导致训练过程中出现不稳定的渐变。
取而代之的是,大多数现代物体检测器会使用对数空间转换进行预测,或者只是到称为锚点的预定义默认边界框的偏移量。
然后,将这些变换应用于锚框以获得预测。
YOLO v3具有三个锚点,可以预测每个单元格三个边界框。
回到我们前面的问题,负责检测狗的边界框将是具有真实值的锚框中具有最高IoU的边界框。
做出预测
以下公式描述了如何调整网络输出以获得边界框预测。
bx,by,bw,bh是我们预测的x,y中心点坐标的宽度和高度。 tx,ty,tw,th是网络输出的数值。 cx和cy是网格的左上角坐标。 pw和ph是该框的锚点尺寸。
中心坐标
请注意,我们正在通过S型函数实现中心坐标预测。
这将强制输出值在0到1之间。
为什么会这样呢?
通常,YOLO不会预测边界框中心的绝对坐标。它预测的偏移量是:
相对于预测对象的网格单元的左上角。
通过特征图中的像元尺寸进行归一化,即1。
例如,考虑我们的狗图像的情况。
如果中心预测为(0.4,0.7),则意味着中心位于13 x 13特征图上的(6.4,6.7)。
(因为红色单元格的左上角坐标为(6,6))。
但是,等等,如果预测的x,y坐标大于1,例如(1.2,0.7),会发生什么。
这意味着中心位于(7.2,6.7)。
请注意,中心现在位于红色单元格或第7行的第8个单元格的右边。
这打破了YOLO背后的理论,因为如果我们假设红框负责预测这只狗,那么该狗的中心必须位于红细胞中,而不是在其旁边。
因此,为解决此问题,输出通过S型函数,该函数将输出压缩在0到1的范围内,从而有效地将中心保持在所预测的网格中。
边框的尺寸
通过对输出数值使用对数空间转换,然后与锚点相乘,可以预测边界框的尺寸。
对检测器进行输出如何转换以给出最终预测。
图片积分
。
结果预测bw和bh由图像的高度和宽度标准化。 (以这种方式选择训练标签)。 因此,如果对包含狗的盒子的预测bx和by为(0.3,0.8),则13 x 13特征图上的实际宽度和高度为(13 x 0.3,13 x 0.8)。
目标分数
对象分数表示对象包含在边界框内的概率。
红色和相邻的网格应该接近1,而角落的网格应该接近0。
客观性分数也将通过S形传递,因为它将被解释为概率。
类别置信度
类别置信度表示检测到的对象属于特定类别(狗,猫,香蕉,汽车等)的概率。
在v3之前,YOLO曾使用softmax来评分。
但是,该设计选择已在v3中删除,作者选择使用Sigmoid。 原因是Softmaxing类分数假定这些类是互斥的。 用简单的话来说,如果一个对象属于一个类,那么可以保证它不能属于另一个类。 这对于我们将基于检测器的COCO数据库是正确的。
但是,当我们开设“女性”和“人”这样的课程时,这种假设可能不成立。 这就是作者避免使用Softmax激活的原因。
跨不同尺度的预测。
YOLO v3可以进行3种不同尺度的预测。
检测层用于在三个不同大小的特征图中进行检测,分别具有步幅32、16、8。
这意味着,使用416 x 416的输入,我们将以13 x 13、26 x 26和52 x 52的比例进行检测。
网络对输入图像进行下采样,直到第一检测层为止,在此使用步幅为32的图层的特征图进行检测。
此外,将各层上采样2倍,并与具有相同特征图大小的先前图层的特征图连接在一起。 现在在步幅为16的层上进行另一次检测。
重复相同的上采样步骤,并在步幅8层进行最终检测。
在每个尺度上,每个像元使用3个锚点预测3个边界框,使使用的锚点总数为9。(不同尺度的锚点不同)
输出处理
对于416 x 416尺寸的图像,YOLO预测((52 x 52)+(26 x 26)+ 13 x 13))x 3 = 10647边界框。
但是,就我们的形象而言,只有一个物体,一只狗。
我们如何将检测结果从10647减少到1?
通过对象置信度进行阈值化
首先,我们根据盒子的客观性得分对其进行过滤。
通常,分数低于阈值的框将被忽略。
非最大抑制
NMS旨在解决同一图像的多次检测问题。 例如,红色网格单元的所有3个边界框可以检测到一个框,或者相邻单元可以检测到同一对象。
多个单元格可能会检测同一个对象NMS被用来去除多个探测值。
如果你不知道NMS,我已经提供了一个链接来解释它。
我们的实现
YOLO 只能侦测到训练数据集里出现过的类别。
我们将使用官方权重文件来虚拟我们的侦测器。
这些权重来自于cooc数据集的网络训练,因此我们可以探测到80个类别。
第一部分到此结束了。
本文将会详细解释yolo 以便于你能够自己实现它。然而,如果你想深入理解yolo
是如何工作的,它是如何训练的,以及它与其它检测算法的比较,你可以阅读原始的论文,链接在下面。
本节结束,欢迎阅读下一节,我们将实现需求的不同层来实现这个检测器。
手把手实现YOLOv3(一)相关推荐
- 手把手实现YOLOv3(三)
前言 本系列教程的第3部分介绍了如何从头开始在PyTorch中实现YOLO v3目标检测器. 这是从头开始实现YOLO v3检测器的教程的第3部分. 在上一个博客中,我们逐层实现了YOLO架构中使用的 ...
- 手把手实现YOLOv3(二)
如何在PyTorch中从零开始实现YOLO(v3)对象检测器:第2部分 前言 本文翻译总结于scratch 目标检测是一个很古老的视觉问题,和其他视觉问题一样,它也从深度学习的发展中受益匪浅. 近年来 ...
- 手把手教你用yolov3模型实现目标检测教程(一) - 环境配置
手把手教你用yolov3模型实现目标检测(一) 写在前面: 由于项目需要,使用yolov3模型做了各种现实场景物体的目标检测.做完了过了好长时间,感觉有些遗忘,还是该留下点东西,方便自己查找,也希望能 ...
- 手把手教你用深度学习做物体检测(二):数据标注
"本篇文章将开始我们训练自己的物体检测模型之旅的第一步-- 数据标注." 上篇文章介绍了如何基于训练好的模型检测图片和视频中的物体,若你也想先感受一下物体检测,可以看看上篇 ...
- 手把手教你用深度学习做物体检测(四):模型使用
上一篇<手把手教你用深度学习做物体检测(三):模型训练>中介绍了如何使用yolov3训练我们自己的物体检测模型,本篇文章将重点介绍如何使用我们训练好的模型来检测图片或视频中的物体. 如 ...
- 飞桨PaddlePaddle-百度架构师手把手带你零基础实践深度学习——21日学习总结
飞桨PaddlePaddle-百度架构师手把手带你零基础实践深度学习--21日学习总结 写在前面的话 纯新手小白,第一次接触深度学习方面的应用.感谢飞桨提供的这次学习机会.之前有学习到深度学习的理论方 ...
- pytorch实现Yolov3网络结构
#基于torch的yolov3网络结构Darknet53实现 最近一段时间在研究目标检测,先从yolov3看起.本文讲下如何使用pytorch实现yolov3网络结构中的DarkNet53网络结构. ...
- 3.1 计算机视觉的发展和卷积神经网络概要(百度架构师手把手带你零基础实践深度学习原版笔记系列)
3.1 计算机视觉的发展和卷积神经网络(百度架构师手把手带你零基础实践深度学习原版笔记系列) 概要 计算机视觉作为一门让机器学会如何去"看"的科学学科,具体的说,就是让机器去识别摄 ...
- 手把手教你用深度学习做物体检测(三):模型训练
本篇文章旨在快速试验使用yolov3算法训练出自己的物体检测模型,所以会重过程而轻原理,当然,原理是非常重要的,只是原理会安排在后续文章中专门进行介绍.所以如果本文中有些地方你有原理方面的疑惑,也没关 ...
最新文章
- 华为全球最快AI训练集群Atlas 900诞生
- GitHub 热榜:中国博士开发可交互全球疫情地图,登上柳叶刀!
- 计算机管理信息系统大作业,管理信息系统期末大作业
- 使用 python 3.6 和 Vmware WorkStation 构建一个小型虚拟局域网通讯程序
- ole db 访问接口 sqlncli 无法启动分布式事务_阿里终面:分布式事务原理
- hostapd 进程启动不了_项目管理|项目启动会实操要点,项目经理掌权的关键
- python2.7如何安装库_python 2.7 安装目录python如何连接数据库
- CVPR 2021 | 又好又快的视频异常检测,引入元学习的动态原型学习组件
- 解决linux服务器上matplotlib中文显示乱码问题
- .NET Framework 托管与非托管代码
- 一、CXF WebService准备工作
- 更换pycharm主题
- 错误“ Java:不支持发行版本5”的正确解决方案
- 2021中国大数据企业50强
- CAD绘制填充,从中间挖去一块(网页版)
- SS P5装备毕业装备
- 计算机一级考试的时候用计算器,在WPS文字里设置计算器功能
- Word/Excel 固定表格大小,填写内容时,表格不随单元格内容变化
- vscode 修改快捷键 (回到上一处光标位置,下一处光标位置)
- keytool生成证书的方法