目录

Abstract

1. Introduction

2、Related work

2.1 Real-time object detection

2.2.Model scaling

3、Principles of model scaling

3.1 General principle of model scaling

3.2.Scaling Tiny Models for Low-End Devices

4 Scaled –YOLOv4

4.1 CSP格式的YOLOv4

4.2 YOLOv4-tiny

4.3  YOLOv4-large

5. Experiments

5.1  Ablation study on CSP-ized model

5.2  Ablation study on YOLOv4-tiny

5.3  Ablation study on YOLOv4-large

5.4 Scaled-YOLOv4 for object detection

5.5. Scaled-YOLOv4 as na¨ıve once-for-all model

6、结论

7.致谢


链接:https://arxiv.org/abs/2011.08036
代码: https://github.com/WongKinYiu/ScaledYOLOv4

Abstract

我们展示了基于CSP方法的YOLOv4对象检测神经网络,可以向上和向下缩放,并且适用于小型和大型网络,同时保持最佳速度和准确性。我们提出了一种网络缩放方法,该方法不仅可以修改深度,宽度,分辨率,还可以修改网络的结构。YOLOv4-large模型达到了最先进的结果:在Tesla V100上以15 FPS的速度为MS COCO数据集提供55.4%的AP(73.3%AP50),而随着测试时间的增加,YOLOv4-large的AP达到了55.8%(73.2 AP50)。据我们所知,这是目前所有已发表作品中COCO数据集最高准确性。YOLOv4-tiny模型在RTX 2080Ti上以〜443 FPS的速度达到22.0%的AP(42.0%AP50),而通过使用TensorRT,批量大小为4和FP16精度,YOLOv4-tiny的模型达到1774 FPS。

1. Introduction

基于深度学习的对象检测技术在我们的日常生活中有许多应用。例如,医学图像分析,自动驾驶车辆,业务分析和面部识别都依赖于对象检测。以上应用程序所需的计算设施可能是云计算设施,通用GPU,IoT群集或单个嵌入式设备。为了设计有效的物体检测器,模型缩放技术非常重要,因为它可以使物体检测器在各种类型的设备上实现高精度和实时推断。

最常见的模型缩放技术是更改骨干网的深度(CNN中卷积层的数量)和宽度(卷积层中卷积滤波器的数量),然后训练适用于不同设备的CNN。例如,在ResNet [10]系列中,ResNet-152和ResNet-101经常用于云服务器GPU,ResNet-50和ResNet-34经常用于个人计算机GPU,而ResNet-18和ResNet-10可以用作用于低端嵌入式系统。在[2]中,蔡等人尝试开发仅需培训一次即可应用于各种设备网络体系结构的技术。他们使用解耦训练,搜索和知识提炼等技术来解耦和训练几个子网,以便整个网络和子网能够处理目标任务。Tan等[30]提出使用NAS技术执行复合缩放,包括在EfficientNet-B0上处理宽度,深度和分辨率。他们使用此初始网络搜索给定计算量的最佳CNN架构,并将其设置为EfficientNet-B1,然后使用线性扩展技术获得诸如EfficientNetB2到EfficientNet-B7的体系结构。

Radosavovic等[23]从巨大的参数搜索空间AnyNet中总结并添加了约束,然后设计了RegNet。在RegNet中,他们发现CNN的最佳深度约为60。他们还发现,当将瓶颈比例设置为1并将跨平台的宽度增加率设置为2.5时,将获得最佳性能。另外,最近有专门针对对象检测而提出的NAS和模型缩放方法,例如SpineNet [5]和EfficientDet [31]。

通过分析最新的对象检测器[1、3、5、22、31、36、40],我们发现CSPDarknet53是YOLOv4的骨干[1],几乎与获得的所有最佳架构特征匹配通过网络体系结构搜索技术。CSPDarknet53的深度,瓶颈比率,阶段之间的宽度增长比率分别为65、1和2。因此,我们开发了基于YOLOv4的模型缩放技术,并提出了可缩放的YOLOv4。如图1所示,所提出的scale-YOLOv4具有出色的性能。scaled-YOLOv4的设计过程如下。首先,我们重新设计YOLOv4并提出YOLOv4-CSP,然后基于YOLOv4-CSP我们开发了scale-YOLOv4。在提出的缩放YOLOv4中,我们讨论了线性缩放模型的上下边界,并分别分析了在小模型和大模型的模型缩放中需要注意的问题。因此,我们能够系统地开发YOLOv4-large和YOLOv4-tiny模型。Scaled-YOLOv4可以在速度和准确性之间取得最佳平衡,并能够在15 fps,30 fps和60 fps影片以及嵌入式系统上执行实时对象检测.

我们总结了本文的贡献:(1)为小模型设计了一种强大的模型缩放方法,可以系统地平衡浅层CNN的计算成本和存储带宽;(2)设计一个简单而有效的缩放大型物体检测器的策略;(3)分析所有模型比例因子之间的关系,然后基于最有利的组分区进行模型比例;(4)实验证实,FPN结构本来就是一劳永逸的结构。(5)利用以上方法开发YOLOv4-tiny和YOLO4v4-large。

2、Related work

2.1 Real-time object detection

对象检测器主要分为一级对象检测器[24、25、26、18、16、20]和两级对象检测器[9、8、27]。仅需进行一次CNN操作即可获得一级目标检测器的输出。对于两阶段目标检测器,通常会将从第一阶段CNN获得的高分区域建议提供给第二阶段CNN进行最终预测。一级目标检测器和二级目标检测器的推理时间可以表示为Tone = T1st和Ttwo = T1st + mT2nd,其中m是置信度得分高于阈值的区域提议的数量。换句话说,一级目标检测器所需的推理时间是恒定的,而二级目标检测器所需的推理时间不是固定的。因此,如果我们需要实时对象检测器,则它们几乎必然是一级对象检测器。当今流行的一级目标检测器主要有两种:基于锚的[26,16]和不基于锚的[6,12,13,32]。在所有无锚方法中,CenterNet [42]非常受欢迎,因为它不需要复杂的后处理,例如非最大抑制(NMS)。目前,更准确的实时单级目标检测器是基于锚的EfficientDet [31],YOLOv4 [1]和PP-YOLO [19]。在本文中,我们基于YOLOv4 [1]开发了模型缩放方法。

2.2.Model scaling

传统的模型缩放方法是更改​​模型的深度,即添加更多的卷积层。例如,Simonyan等人设计的VGGNet [28]。在不同阶段堆叠其他卷积层,也使用此概念设计VGG-11,VGG-13,VGG-16和VGG-19体系结构。后续方法通常遵循相同的方法进行模型缩放。对于He等人提出的ResNet [10],深度缩放可以构建非常深的网络,例如ResNet-50,ResNet-101和ResNet-152。后来,Zagoruyko等人。[39]考虑了网络的宽度,他们改变了卷积层的内核数以实现缩放。因此,他们设计了广泛的ResNet(WRN),同时保持了相同的准确性。尽管WRN比ResNet具有更多的参数,但推理速度要快得多。随后的DenseNet [11]和ResNeXt [37]也设计了一种考虑深度和宽度的复合缩放版本。对于图像金字塔推断,这是在运行时执行增强的一种常见方法。它获取输入图像并进行各种不同的分辨率缩放,然后将这些不同的金字塔组合输入到经过训练的CNN中。最后,网络将把多组输出作为最终结果进行集成。Redmon等[26]使用以上概念来执行输入图像尺寸缩放。他们使用更高的输入图像分辨率对经过训练的Darknet53进行微调,执行此步骤的目的是获得更高的精度。

近年来,网络架构搜索(NAS)的相关研究得到了大力发展,NASFPN [7]已经在寻找特征金字塔的组合路径。我们可以将NAS-FPN视为一种模型缩放技术,主要在阶段级别执行。至于EfficientNet [30],它使用基于深度,宽度和输入大小的复合缩放搜索。EfficientDet [31]的主要设计思想是分解具有目标检测器不同功能的模块,然后对图像大小,宽度,#BiFPN层和#box / class层执行缩放。使用NAS概念的另一种设计是SpineNet [5],它主要针对用于网络架构搜索的鱼形目标检测器的总体架构。该设计概念最终可以产生比例排列的结构。另一种具有NAS设计的网络是RegNet [23],它主要固定级数和输入分辨率,并将每个级的深度,宽度,瓶颈比率和组宽度等所有参数集成到深度,初始宽度,斜率,量化,瓶颈比率和小组宽度。最后,他们使用这六个参数执行复合模型缩放搜索。上面的方法都是很好的工作,但是很少分析不同参数之间的关系。在本文中,我们将尝试根据对象检测的设计要求找到一种用于复合化合物缩放的方法。该设计概念最终可以产生比例排列的结构。另一种具有NAS设计的网络是RegNet [23],它主要固定级数和输入分辨率,并将每个级的深度,宽度,瓶颈比率和组宽度等所有参数集成到深度,初始宽度,斜率,量化,瓶颈比率和小组宽度。最后,他们使用这六个参数执行复合模型缩放搜索。上面的方法都是很好的工作,但是很少分析不同参数之间的关系。在本文中,我们将尝试根据对象检测的设计要求找到一种用于复合化合物缩放的方法。

3、Principles of model scaling

在对提出的目标检测器执行模型缩放后,下一步是处理将改变的定量因素,包括带有定性因素的参数数量。这些因素包括模型推断时间,平均精度等。定性因素将根据所使用的设备或数据库而具有不同的增益效果。我们将在3.1中分析和设计定量因素。对于3.2和3.3,我们将设计与分别在低端设备和高端GPU上运行的微小对象检测器有关的定性因素。

3.1 General principle of model scaling

在设计有效的模型缩放方法时,我们的主要原理是,当缩放比例增大/减小时,要增加/减少的定量成本越低/越高,效果越好。在本节中,我们将体现和分析各种通用的CNN模型,并试图了解它们在面对(1)图像大小,(2)层数和(3)通道数变化时的定量成本。我们选择的CNN是ResNet,ResNext和Darknet。

对于具有b个基本层通道的k层CNN,ResNet层的计算为k * {conv 1×1,b/4 – conv3×3,b/4–conv 1×1,b}, ResNext层为k*{conv1×1,b/ 2– gconv 3×3/32,b/2 – conv1×1,b}。对于darknet层,计算量为k * {conv1×1,b/2 – conv3×3,b}。令可用于调整图像大小,层数和通道数的缩放因子分别为α,β和γ。当这些比例因子变化时,表1总结了FLOP的相应变化。

从表1中可以看出,缩放尺寸,深度和宽度会导致计算成本的增加。它们分别显示平方,线性和平方增加。

Wang等人提出的CSPNet [33]。可以应用于各种CNN架构,同时减少参数和计算量。此外,它还提高了准确性并减少了推理时间。我们将其应用于ResNet,ResNeXt和Darknet,并观察计算量的变化,如表2所示。

根据表2中的图表,我们观察到将上述CNN转换为CSPNet之后,新架构可以有效地将ResNet,ResNeXt和Darknet上的计算量(FLOP)减少23.5%,46.7%和50.0%,分别。因此,我们将CSP模型化为执行模型缩放的最佳模型。

3.2.Scaling Tiny Models for Low-End Devices

对于低端设备,设计模型的推理速度不仅受计算量和模型大小的影响,而且更重要的是,必须考虑外围硬件资源的限制。因此,在执行微小模型缩放时,我们还必须考虑诸如内存带宽,内存访问成本(MAC)和DRAM流量之类的因素。为了考虑到以上因素,我们的设计必须遵守以下原则:

使计算顺序小于O(whkb2):轻量模型与大型模型的不同之处在于,它们的参数利用率必须更高,以便通过少量计算即可达到所需的精度。在执行模型缩放时,我们希望计算的顺序可以尽可能的低。在表3中,我们分析了有效利用参数的网络,例如DenseNet和OSANet的计算量。

对于一般的CNN,表3中列出的g,b和k之间的关系为k << g <b。因此,DenseNet的计算复杂度顺序为O(whgbk),而OSANet的计算复杂度顺序为O(max(whbg,whkg2))。上面两者的计算复杂度顺序小于ResNet系列的O(whkb2)。因此,我们借助OSANet设计了较小的模型,该模型具有较小的计算复杂性。

特征图的最小化/平衡大小:为了获得最佳的计算速度权衡,我们提出了一个新的概念,即在CSPOSANet的计算块之间执行梯度截断。如果我们将原始CSPNet设计应用于DenseNet或ResNet体系结构,因为这两种体系结构的第jth层输出是第1st层至第(j – 1)th层输出的集成,因此我们必须将整个计算块作为一个整体来对待。因为OSANet的计算块属于PlainNet体系结构,所以从计算块的任何层制作CSPNet都可以实现梯度截断的效果。我们使用此功能重新规划基础层的b通道和由计算块生成的kg通道,并将它们分成具有相同通道号的两条路径,如表4所示。

当通道数为b + kg时,如果要将这些通道分为两条路径,最好的划分方法是将其分为两个相等的部分,即(b + kg)/ 2。当我们实际考虑硬件的带宽τ时,如果不考虑软件优化,则最佳值为ceil((b + kg)/2τ)×τ。我们设计的CSPOSANet可以动态调整通道分配。

卷积后保持相同数量的通道:为了评估低端设备的计算成本,我们还必须考虑功耗,影响功耗的最大因素是内存访问成本(MAC)。通常,用于卷积运算的MAC计算方法如下:

其中h,w,Cin,Cout和K分别表示特征图的高度和宽度,输入和输出的通道数以及卷积滤波器的内核大小。通过计算几何不等式,我们可以得出Cin = Cout时最小的MAC。

最小化卷积输入/输出(CIO):CIO是可以测量DRAM IO状态的指示器。表5列出了OSA,CSP和我们设计的CSPOSANet的CIO。

当kg> b / 2时,建议的CSPOSANet可以获得最佳CIO。

3.3. Scaling Large Models for High-End GPUs

由于我们希望在放大CNN模型后提高准确性并保持实时推理速度,因此在执行复合缩放时,必须在对象检测器的许多缩放因子之间找到最佳组合。通常,我们可以调整对象检测器的输入,主干和颈部的比例因子。可以调整的潜在缩放比例汇总于表6。

图像分类和对象检测之间的最大区别在于,前者仅需要识别图像中最大成分的类别,而后者则需要预测图像中每个对象的位置和大小。在一级对象检测器中,与每个位置相对应的特征向量用于预测该位置上对象的类别和大小。更好地预测对象大小的能力基本上取决于特征向量的接受场。在CNN架构中,与接受领域最直接相关的是阶段,而特征金字塔网络(FPN)架构告诉我们,更高的阶段更适合于预测大型物体。在表7中,我们说明了感受野和几个参数之间的关系。

从表7可以明显看出,宽度缩放可以独立进行。当输入图像尺寸增加时,如果要对大型物体具有更好的预测效果,则他/她必须增加网络的深度或级数。在表7列出的参数中,{sizeinput,#stage}的复合结果影响最大。因此,在进行放大时,我们首先对sizeinput,#stage进行复合缩放,然后根据实时要求,分别对深度和宽度进行缩放。

4 Scaled –YOLOv4

在本节中,我们将重点放在为通用GPU,低端GPU和高端GPU设计缩放的YOLOv4上。

4.1 CSP格式的YOLOv4

YOLOv4设计用于在通用GPU上进行实时对象检测。在本小节中,我们将YOLOv4重新设计为YOLOv4-CSP,以获得最佳的速度/精度权衡。

骨干:在CSPDarknet53的设计中,跨阶段处理的下采样卷积的计算不包含在残差块中。因此,我们可以推断出每个CSPDarknet阶段的计算量为whb2(9/4 + 3/4 + 5k / 2)。根据上面推导的公式,我们知道CSPDarknet阶段仅在满足k> 1时才会比Darknet阶段具有更好的计算优势。CSPDarknet53中每个阶段拥有的剩余层数分别为1-2-8-8-4。为了获得更好的速度/精度权衡,我们将第一个CSP阶段转换为原始的Darknet残留层。

Neck为了有效减少计算量,我们在YOLOv4中对PAN体系结构进行了CSP大小化。PAN体系结构的计算列表如图2(a)所示。它主要集成来自不同要素金字塔的要素,然后穿过两组反向的Darknet残差层,而没有快捷连接。CSP化之后,新计算列表的体系结构如图2(b)所示。此新更新有效地减少了40%的计算量。

SPPSPP模块最初插入到脖子的第一个计算列表组的中间位置。因此,我们也将SPP模块插入CSPPAN的第一个计算列表组的中间位置。

4.2 YOLOv4-tiny

YOLOv4-tiny专为低端GPU设备而设计,其设计将遵循3.2节中提到的原则。

我们将使用具有PCB架构的CSPOSANet来构成YOLOv4的主干。我们将g = b/2设置为增长率,最后使其增长到b/2 + kg = 2b。通过计算,我们推导出k = 3,其架构如图3所示。关于每个级和颈部部分的通道数,我们遵循YOLOv3-tiny的设计。

4.3  YOLOv4-large

YOLOv4-large是专为云GPU设计的,其主要目的是实现物体检测的高精度。我们设计了完整的CSP模型YOLOv4-P5,并将其扩展到YOLOv4-P6和YOLOv4-P7。

图4显示了YOLOv4-P5,YOLOv4P6和YOLOv4-P7的结构。我们设计为对大小输入#stage执行复合缩放。我们将每个阶段的深度比例设置为2dsi,将ds设置为[1、3、15、15、7、7、7]。最后,我们进一步使用推理时间作为约束条件来执行其他宽度缩放。我们的实验表明,当宽度比例因子等于1时,YOLOv4-P6可以达到30 fps视频的实时性能。对于YOLOv4-P7,如果宽度比例因子等于可以达到15 fps视频的实时性能。至1.25。

5. Experiments

我们使用MSCOCO 2017对象检测数据集来验证建议的可缩放YOLOv4。我们不使用ImageNet预训练模型,并且所有缩放的YOLOv4模型都是从头开始训练的,采用的工具是SGD优化器。训练YOLOv4-tiny的时间为600 epoch,而训练YOLOv4-CSP的时间为300 epoch。对于YOLOv4-large,我们先执行300个纪元,然后再使用更强大的数据增强方法训练150个纪元。对于超参数的拉格朗日乘数,例如学习率的锚点,不同数据扩充方法的程度,我们使用k均值和遗传算法来确定。附录中详细介绍了与超参数有关的所有细节。

5.1  Ablation study on CSP-ized model

在本小节中,我们将对不同的模型进行CSP转换,并分析CSP转换对参数数量,计算量,吞吐量和平均精度的影响。我们使用Darknet53(D53)作为骨干,并选择带有SPP的FPN(FPNSPP)和带有SPP的PAN(PANSPP)作为颈部来设计消融研究。在表8中,我们列出了CSP调整不同DNN模型后的APval结果。我们分别使用LeakyReLU(Leaky)和Mish激活函数来比较所使用的参数,计算和吞吐量。实验全部在COCO minval数据集上进行,所得AP示于表8的最后一列。

从表8中列出的数据可以看出,CSP模型化后的参数和计算量大大减少了32%,并提高了批处理8的吞吐量和AP。如果要保持相同的帧速率,则可以在CSP转换后为模型添加更多层或更多高级激活功能。从表8所示的数字中,我们可以看到CD53s-CFPNSPP-Mish和CD53sCPANSPP-Leaky与D53-FPNSPP-Leaky具有相同的批处理8吞吐量,但是在计算量较低的情况下,它们的AP改善分别为1%和1.6% 资源。从上面的改进数字中,我们可以看到模型CSP带来的巨大优势。因此,我们决定使用CD53s-CPANSPP-Mish,它将表8中最高的AP用作YOLOv4-CSP的主干。

5.2  Ablation study on YOLOv4-tiny

在本小节中,我们设计了一个实验,以显示如果将CSPNet与计算块中的部分功能一起使用,则灵活性会如何。我们还与CSPDarknet53进行了比较,在CSPDarknet53中,我们对宽度和深度进行了线性缩减。结果示于表9。

在本小节中,我们设计了一个实验,以显示如果将CSPNet与计算块中的部分功能一起使用,则灵活性会如何。我们还与CSPDarknet53进行了比较,在CSPDarknet53中,我们对宽度和深度进行了线性缩减。结果如表9所示。从表9所示的图表中,我们可以看到,设计的PCB技术可以使模型更加灵活,因为可以根据实际需要调整设计。根据以上结果,我们还证实了线性缩小确实有其局限性。显然,在有限的工作条件下,tinyCD53的剩余添加成为推理速度的瓶颈,因为在相同的计算量下,它的帧速率远低于COSA体系结构。同时,我们也看到拟议中的COSA可以获得更高的AP。因此,我们最终选择了在实验中获得最佳速度/精度折衷的COSA-2x2x作为YOLOv4-tiny架构。

5.3  Ablation study on YOLOv4-large

在表10中,我们显示了从零开始和微调阶段通过YOLOv4模型获得的AP。

5.4 Scaled-YOLOv4 for object detection

我们与其他实时对象检测器进行了比较,结果如表11所示。在[AP,AP50,AP75,APS,APM,APL]项目中以粗体标出的值表明该模型在相应的检测器中表现最佳项目。我们可以看到,所有缩放的YOLOv4模型,包括YOLOv4-CSP,YOLOv4-P5,YOLOv4-P6,YOLOv4P7,在所有指标上都是帕累托最优的。当我们将YOLOv4-CSP与EfficientDetD3的相同精度(47.5%对47.5%)进行比较时,推理速度是1.9倍。当将YOLOv4-P5与EfficientDet-D5进行相同精度的比较(51.4%对51.5%)时,推理速度

YOLOv4大型模型的测试时间增加(TTA)实验的结果显示在表12中。应用。应用TTA后,YOLOv4P5,YOLOv4-P6和YOLOv4-P7分别提高AP 1.1%,0.6%和0.4%

然后,我们将YOLOv4-tiny的性能与其他微型物体检测器的性能进行了比较,结果如表13所示。显然,与其他微型模型相比,YOLOv4-tiny的性能最佳。

然后,我们将YOLOv4-tiny的性能与其他微型物体检测器的性能进行了比较,结果如表13所示。显然,与其他微型模型相比,YOLOv4-tiny的性能最佳。最后,我们将YOLOv4-tiny放在不同的嵌入式GPU上进行测试,包括Xavier AGX,Xavier NX,Jetson TX2和Jetson NANO。我们还使用TensorRT FP32(如果支持FP16)进行测试。表14列出了通过不同模型获得的所有帧速率。很明显,无论使用哪种设备,YOLOv4-tiny都可以实现实时性能。如果我们采用FP16和批处理大小4来测试Xavier AGX和Xavier NX,则帧速率可以分别达到380fps和199fps。另外,如果使用TensorRT FP16在通用GPU RTX 2080ti上运行YOLOv4-tiny,则当批大小分别等于1和4时,相应的帧速率可以达到773fps和1774fps,这是非常快的。

5.5. Scaled-YOLOv4 as na¨ıve once-for-all model

在本小节中,我们设计实验以表明类似FPN的体系结构是幼稚的“一劳永逸”的模型。在这里,我们删除了YOLOv4-P7的自顶向下路径和检测分支的某些阶段。YOLOv4-P7 \ P7和YOLOv4P7 \ P7 \ P6代表已从训练有素的YOLOv4-P7中移除了{P7}和{P7,P6}阶段的模型。图5显示了修剪后的模型与具有不同输入分辨率的原始YOLOv4-P7之间的AP差异。

我们可以发现YOLOv4-P7在高分辨率下具有最佳AP,而YOLOv4-P7 \ P7和YOLOv4-P7 \ P7 \ P6在中分辨率和低分辨率下分别具有最佳AP。这意味着我们可以使用类似FPN的模型的子网来很好地执行对象检测任务。此外,我们可以对模型架构和对象检测器的输入大小进行复合缩减,以获得最佳性能。

6、结论

我们展示了基于CSP方法的YOLOv4对象检测神经网络,可以上下扩展,并且适用于小型和大型网络。因此,通过使用TensorRT-FP16,我们在YOLOv4大型模型的测试开发COCO数据集上实现了最高准确度55.8%的AP,在RTX 2080Ti上对于小型YOLOv4-tiny的小型模型实现了极高的1774 FPS的速度YOLOv4模型。

7.致谢

作者要感谢美国国家高性能计算中心(NCHC)提供的计算和存储资源。大部分代码是从https://github.com/AlexeyAB、https://github.com/WongKinYiu和https://github.com/glenn-jocher借来的。感谢他们的精彩作品。

全文翻译【Scaled-YOLOv4: Scaling Cross Stage Partial Netw】相关推荐

  1. 论文翻译:Scaled-YOLOv4: Scaling Cross Stage Partial Network

    大体翻译了下,个别地方原文看的我就迷糊,为了保持原样,就保留了. Scaled-YOLOv4: Scaling Cross Stage Partial Network 摘要 1.介绍 2.相关工作 2 ...

  2. Scaled-YOLOv4: Scaling Cross Stage Partial Network 论文翻译

    Scaled-YOLOv4: Scaling Cross Stage Partial Network论文翻译 摘要 1.介绍 2.相关工作 2.1 实时检测器 2.2 模型缩放 3.模型缩放的原则 3 ...

  3. YOLOv4改进版重磅问世!Yolov4扩展版!Yolov4原班人马重磅推出Scaled-YOLOv4: Scaling Cross Stage Partial Network

    论文pdf请在公众号[计算机视觉联盟]后台回复[20201118]获取 摘要: 我们证明了基于CSP方法的YOLOv4目标检测神经网络,可以上下缩放,适用于小型和大型网络,同时保持最佳的速度和精度.我 ...

  4. 目标检测——day66 Scaled-YOLOv4: Scaling Cross Stage Partial Network

    Scaled-Yolov4:可伸缩跨级部分网络 Scaled-YOLOv4 1. Introduction 2. Related work 2.1. Real-time object detectio ...

  5. Scaled-YOLOv4: Scaling Cross Stage Partial Network

    链接:https://arxiv.org/abs/2011.08036 代码: https://github.com/WongKinYiu/ScaledYOLOv4 本文的贡献: (1)针对小模型设计 ...

  6. Cross Stage Partial Network(CSPNet)

    Cross Stage Partial Network(CSPNet) 一. 论文简介 降低计算量,同时保持或提升精度 主要做的贡献如下(可能之前有人已提出): 提出一种思想,特征融合方式(降低计算量 ...

  7. Yolo-v4的CSPNet(Cross Stage Partial Network)

    CSPNet介绍: 计算机视觉的任务很依赖昂贵的计算资源,提出了跨阶段局部网络(CSPNet)解决以往工作中需要大量推理计算的问题.CSPNet易于实现,并且足够通用,可以处理基于ResNet.Res ...

  8. 【全文翻译】YOLOv4:目标检测的最佳速度和准确性

      论文连接:https://arxiv.org/abs/2004.10934 翻译的很多都是直译的,不准的地方请欢迎大佬指正 摘要 有许多功能可以提高卷积神经网络(CNN)的准确性.需要在大型数据集 ...

  9. 【YOLOv4原文+翻译】YOLOv4:Optimal Speed and Accuracy of Object Detection

    最近新出了YOLOV4,我系统的从V1开始整理出稿,传送门: [YOLOv1原文+翻译]You Only Look Once Unified, Real-Time Object Detection [ ...

最新文章

  1. EntityFramework+DomainDataSource+Silverlight完成数据读取分页排序与修改
  2. 【原创视频教程】学生信息管理系统5--学员成绩管理
  3. C# 获取几种路径的方式
  4. 无缝融入 Kubernetes 生态 | 云原生网关支持 Ingress 资源
  5. 什么?原来C#还有这两个关键字
  6. adf开发_ADF BC:创建绑定到业务组件的UI表
  7. C语言(CED)如何用sort函数根据结构体里的某一属性进行排序
  8. CGLib动态代理原理及实现
  9. 安装Sphinx 和 Thinking Sphinx
  10. ipv6 neutron应用(一)
  11. Java EE之JSP
  12. 矩阵拼接_numpy 矩阵拼接
  13. Python自动化测试框架,谁才是你的唯一?
  14. 世界各国GDP排名(1960-2018)
  15. WIN10系统如何取消右下角的通知菜单,通知图标
  16. 关于生物医学工程{血站+软件}的看法
  17. php公众号用户关注,微信公众号获取用户信息(用户关注公众号)
  18. fping 命令参考--网络工具--快速ping--windowslinux
  19. 关于万门大学的《理论物理一个月特训》课程
  20. wwx第一次Devc++打代码

热门文章

  1. C++语法——右值引用、移动构造和赋值、万能引用和转发、move和forward底层实现
  2. centos7中journal和rsyslog日志
  3. T94 EndNote Journal List批量更新方案
  4. 已解决 java.sql.SQLException: 列名无效
  5. 西江月 - 书到用时方恨少
  6. 【html】 把 a 标签的下滑线去掉
  7. 【完结】重磅!深度学习计算摄影的12篇干货文章
  8. [BIOS] thinkpad X220 BIOS设置详解
  9. verilog中initial语句的基本使用
  10. 黑吧安全网--古墓探秘