点击上方“3D视觉工坊”,选择“星标”

干货第一时间送达

作者丨南山

来源丨 AI约读社

YOLOv5是一种非常受欢迎的单阶段目标检测,以其性能和速度著称,其结构清晰灵活。虽然 yolov5是一个强有力的工具,但它被设计成一个通用的目标检测器,因此对较小的目标检测没有很好的优化。本文将总结了当前针对yolov5小目标检测的网络结构优化方法。 主要有以下几个方法:

1、增加小目标检测层

2、Transformer Prediction Heads (TPH)集成到YOLOv5

3、将CBAM集成到YOLOv5

4、用Bi-FPN替换PAN-Net

完整改进代码关注公众号后台回复:小目标检测

1 增加小目标检测层

YOLOv5小目标检测效果不好的一个原因是因为小目标样本的尺寸较小,而yolov5的下采样倍数比较大,较深的特征图很难学习到小目标的特征信息,因此提出增加小目标检测层对较浅特征图与深特征图拼接后进行检测。

这个方式的实现十分简单有效,只需要修改yolov5的模型文件yaml就可以增加小目标检测层,但是在增加检测层后,带来的问题就是计算量增加,导致推理检测速度降低。不过对于小目标,确实有很好的改善。

修改Anchor:增加一组较小的anchor

# anchors
anchors:- [5,6, 8,14, 15,11]  #4- [10,13, 16,30, 33,23]  # P3/8- [30,61, 62,45, 59,119]  # P4/16- [116,90, 156,198, 373,326]  # P5/32

修改Head部分:

在第17层后,继续对特征图进行上采样等处理,使得特征图继续扩大,同时在第20层时,将获取到的大小为160X160的特征图与骨干网络中第2层特征图进行concat融合,以此获取更大的特征图进行小目标检测

# YOLOv5 head[-1, 1, Conv, [256, 1, 1]], #18  80*80[-1, 1, nn.Upsample, [None, 2, 'nearest']], #19  160*160[[-1, 2], 1, Concat, [1]], #20 cat backbone p2  160*160[-1, 3, BottleneckCSP, [256, False]], #21 160*160
# 篇幅限制中间省略一些代码,原代码关注公众后后台回复:YOLO小目标[[21, 24, 27, 30], 1, Detect, [nc, anchors]],  # Detect(p2, P3, P4, P5)]

Transformer Prediction Heads (TPH)集成到YOLOv5

论文题目:TPH-YOLOv5: Improved YOLOv5 Based on Transformer Prediction Head for Object Detection on Drone-Captured Scenarios

TPH-YOLOv5的网络结构如下:

TPH-YOLOv5用Transformer encoder块替换了YOLOv5中的一些卷积块和CSP bottleneck blocks,其结构如下图所示:每个Transformer encoder block包含2个子层。第1子层为multi-head attention layer,第2子层(MLP)为全连接层。每个子层之间使用残差连接。Transformer encoder block增加了捕获不同局部信息的能力。它还可以利用自注意力机制来挖掘特征表征潜能。

class C3TR(C3):# C3 module with TransformerBlock()def __init__(self, c1, c2, n=1, shortcut=True, g=1, e=0.5):super().__init__(c1, c2, n, shortcut, g, e)c_ = int(c2 * e)self.m = TransformerBlock(c_, c_, 4, n)class TransformerBlock(nn.Module):# Vision Transformer https://arxiv.org/abs/2010.11929def __init__(self, c1, c2, num_heads, num_layers):super().__init__()self.conv = Noneif c1 != c2:self.conv = Conv(c1, c2)self.linear = nn.Linear(c2, c2)  # learnable position embeddingself.tr = nn.Sequential(*(TransformerLayer(c2, num_heads) for _ in range(num_layers)))self.c2 = c2def forward(self, x):if self.conv is not None:x = self.conv(x)b, _, w, h = x.shapep = x.flatten(2).unsqueeze(0).transpose(0, 3).squeeze(3)return self.tr(p + self.linear(p)).unsqueeze(3).transpose(0, 3).reshape(b, self.c2, w, h)

与CSPDarknet53中的bottleneck blocks相比,Transformer encoder block可以捕获全局信息和丰富的上下文信息。

完整改进代码关注公众号后台回复:小目标检测

3、将CBAM集成到YOLOv5

在YOLOV5中插入CBAM,CBAM可以无缝地集成到任何CNN架构中,开销不会很大,而且可以与基本CNN网络一起进行端到端的训练。假设我们有一个中间特征F(H×W×C)作为卷积层的输出。根据层的深度,每个这样的特征层都会捕获有用的信息,例如简单的边缘、形状等,以获取更复杂的输入语义表示。我们希望网络更多地关注(即关注)这些特征图的重要部分。

class CBAM(nn.Module):def __init__(self, c1,c2):super(CBAM, self).__init__()self.channel_attention = ChannelAttentionModule(c1)self.spatial_attention = SpatialAttentionModule()def forward(self, x):out = self.channel_attention(x) * xout = self.spatial_attention(out) * outreturn outclass ChannelAttentionModule(nn.Module):def __init__(self, c1, reduction=16):super(ChannelAttentionModule, self).__init__()mid_channel = c1 // reductionself.avg_pool = nn.AdaptiveAvgPool2d(1)self.max_pool = nn.AdaptiveMaxPool2d(1)self.shared_MLP = nn.Sequential(nn.Linear(in_features=c1, out_features=mid_channel),nn.ReLU(),nn.Linear(in_features=mid_channel, out_features=c1))self.sigmoid = nn.Sigmoid()#self.act=SiLU()def forward(self, x):avgout = self.shared_MLP(self.avg_pool(x).view(x.size(0),-1)).unsqueeze(2).unsqueeze(3)maxout = self.shared_MLP(self.max_pool(x).view(x.size(0),-1)).unsqueeze(2).unsqueeze(3)return self.sigmoid(avgout + maxout)class SpatialAttentionModule(nn.Module):def __init__(self):super(SpatialAttentionModule, self).__init__()self.conv2d = nn.Conv2d(in_channels=2, out_channels=1, kernel_size=7, stride=1, padding=3) #self.act=SiLU()self.sigmoid = nn.Sigmoid()def forward(self, x):avgout = torch.mean(x, dim=1, keepdim=True)maxout, _ = torch.max(x, dim=1, keepdim=True)out = torch.cat([avgout, maxout], dim=1)out = self.sigmoid(self.conv2d(out))return out

使用CBAM可以提取注意区域,以帮助YOLOv5抵制令人困惑的信息,并关注有用的目标对象。

完整版改进代码关注公众号后台回复:小目标检测

4、用Bi-FPN替换PAN-Net

将位于Head和Backbone之间的结构称为“Neck”,其目标是在将Backbone提取的信息反馈到Head之前尽可能多地聚合这些信息。该结构通过防止小目标信息丢失,在传递小目标信息方面发挥了重要作用。它通过再次提高特征图的分辨率来做到这一点,这样来自Backbone的不同层的特征就可以被聚合,以提升整体的检测性能。

Bi-FPN是在EfficientDet中提出了一种加权的双向特征金字塔网络,它允许简单和快速的多尺度特征融合。目的是为了追求更高效的多尺度融合方式。以往的特征融合是平等地对待不同尺度特征,Bi-FPN引入了权重(类似于attention),更好地平衡不同尺度的特征信息。

neck部分模型结构文件yaml代码

# YOLOv5 v6.0 head
head:[[-1, 1, Conv, [512, 1, 1]],[-1, 1, nn.Upsample, [None, 2, 'nearest']],[[-1, 6], 1, Concat, [1]],  # cat backbone P4[-1, 3, C3, [512, False]],  # 13[-1, 1, Conv, [256, 1, 1]],[-1, 1, nn.Upsample, [None, 2, 'nearest']],[[-1, 4], 1, Concat, [1]],  # cat backbone P3[-1, 3, C3, [256, False]],  # 17 (P3/8-small)[ -1, 1, Conv, [ 128, 1, 1 ] ],[ -1, 1, nn.Upsample, [ None, 2, 'nearest' ] ],[ [ -1, 2 ], 1, Concat, [ 1 ] ],  # cat backbone P2[-1, 1, SPP, [128, [5, 9, 13]]],[ -1, 3, C3, [ 128, False ] ],  #  (P2/4-xsmall)[-1, 1, CBAM, [128]],           # 23

完整版改进代码关注公众号后台回复:小目标检测

这篇文章介绍了四种基于YOLOV5小目标检测的网络结构优化方法,主要是通过Transformer encoder块替换了YOLOv5中的一些卷积块,以及增加小目标检测层,集成CBAM空间通道注意力模块和使用Bi-FPN替换PAN-FPN,还有一些针对小目标检测技巧的改进,后续有时间我们在做总结。

检测效果图:

参考资料:

[1] Zhu X, Lyu S, Wang X, et al. TPH-YOLOv5: Improved YOLOv5 Based on Transformer Prediction Head for Object Detection on Drone-captured Scenarios[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. 2021: 2778-2788.

[2] Benjumea A, Teeti I, Cuzzolin F, et al. YOLO-Z: Improving small object detection in YOLOv5 for autonomous vehicles[J]. arXiv preprint arXiv:2112.11798, 2021.

[3]  集智书童@公众号 详细解读TPH-YOLOv5 | 让目标检测任务中的小目标无处遁形

https://mp.weixin.qq.com/s/QPwvZSjHRQsnME8CjUg6UA

[4]  集智书童@公众号 记录修改YOLOv5以适应小目标检测的实验过程https://cloud.tencent.com/developer/article/1925516

[5]  Tz..@CSDN FPN以及其他结构FPN——Bi-FPN重点(仅供自己学习使用)https://blog.csdn.net/qq_41456654/article/details/115558583

[6]  小俊俊的博客 @CSDN yolov5增加小目标检测层

https://blog.csdn.net/weixin_41868104/article/details/111596851?spm=1001.2014.3001.5501

本文仅做学术分享,如有侵权,请联系删文。

3D视觉精品课程推荐:

1.面向自动驾驶领域的多传感器数据融合技术

2.面向自动驾驶领域的3D点云目标检测全栈学习路线!(单模态+多模态/数据+代码)
3.彻底搞透视觉三维重建:原理剖析、代码讲解、及优化改进
4.国内首个面向工业级实战的点云处理课程
5.激光-视觉-IMU-GPS融合SLAM算法梳理和代码讲解
6.彻底搞懂视觉-惯性SLAM:基于VINS-Fusion正式开课啦
7.彻底搞懂基于LOAM框架的3D激光SLAM: 源码剖析到算法优化
8.彻底剖析室内、室外激光SLAM关键算法原理、代码和实战(cartographer+LOAM +LIO-SAM)

9.从零搭建一套结构光3D重建系统[理论+源码+实践]

10.单目深度估计方法:算法梳理与代码实现

11.自动驾驶中的深度学习模型部署实战

12.相机模型与标定(单目+双目+鱼眼)

13.重磅!四旋翼飞行器:算法与实战

重磅!3DCVer-学术论文写作投稿 交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、多传感器融合、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等微信群。

一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

▲长按加微信群或投稿

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的视频课程(三维重建系列、三维点云系列、结构光系列、手眼标定、相机标定、激光/视觉SLAM自动驾驶等)、知识点汇总、入门进阶学习路线、最新paper分享、疑问解答五个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近4000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

圈里有高质量教程资料、答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~  

YOLOV5 的小目标检测网络结构优化方法汇总(附代码)相关推荐

  1. 小目标检测常用解决方法

    小目标检测常用解决方法 1 定义 通用的定义来自 COCO 数据集,定义小于 32x32 pix 的为小目标. 2 小目标检测的难点 可利用特征少 现有数据集中小目标占比少 小目标聚集问题 首先小目标 ...

  2. 目标检测论文解读复现之十六:基于改进YOLOv5的小目标检测算法

    前言 此前出了目标改进算法专栏,但是对于应用于什么场景,需要什么改进方法对应与自己的应用场景有效果,并且多少改进点能发什么水平的文章,为解决大家的困惑,此系列文章旨在给大家解读最新目标检测算法论文,帮 ...

  3. YOLOv5增加小目标检测层

    采用增加小目标检测层的方式来使YOLOv5能够检测小目标,只需要修改models下的yaml文件中的内容即可. 主要改变如下: 原yaml: # parameters nc: 80 # number ...

  4. TensorRT+yolov5:yolov5添加小目标检测层2--TensorRT部署

    前面我们在yolov5添加了小目标检测层,进行了训练,但是训练的次数也不是很多,接下来我们使用tensorrt进行四个检测头的yolov5部署.具体如何添加小目标检测层可以查看我上一篇文章. Tens ...

  5. MATLAB算法实战应用案例精讲-【图像处理】小目标检测(补充篇)(附python代码实现)

    目录 前言 常用数据集及性能评估 数据集 性能评估 改进方向 小目标检测分类

  6. 目标检测-小目标检测涨点方法

    文章目录 一.图片输入层面 1. 数据增强策略 2. 多尺度输入 3. SNIP 4. SNIPER 二. Neck部分(采用金字塔结构改进方案的) 1. 某种金字塔 2. AugFPN 3. PAN ...

  7. 【目标检测】YOLOv5针对小目标检测的改进模型/添加帧率检测

    问题背景 众所周知,YOLOv5会对输入的图片进行放缩,并进行32倍下采样.对于一些分辨率很高的遥感/无人机图片,小目标难以被训练识别. 本篇博文就来尝试这篇博文YOLOV5 模型和代码修改--针对小 ...

  8. 深度学习中的单阶段小目标检测方法综述

    随着深度学习的不断发展,目标检测技术逐步从基于传统的手工检测方法向基于深度神经网络的检测方法转变.在众多基于深度学习的目标检测方法中,基于深度学习的单阶段目标检测方法因其网络结构较简单.运行速度较快以 ...

  9. YOLOv5小目标检测(方法与评价)

    问题: 当我们在对小目标数据集进行检测时,发现无论如何都有一些漏检的,其中我们也添加一些模块,以及其他的一些改进方法,如注意力.激活函数等等,结果始终不会令人满意,map也没有丝毫的提升. 目的: 增 ...

最新文章

  1. UVA11419 我是SAM
  2. 虚拟机与系统文件互传(VMware Tools)的使用
  3. 《C语言及程序设计》程序阅读——文件操作
  4. 说实话,你工作5年,不知道什么是Java agent技术,让我很吃惊...
  5. centos7.6下的python3.6.9虚拟环境安装elastalert
  6. 【实例讲解】JS中形参、实参可以不一致
  7. CodeForces - 208E Blood Cousins(树上倍增+二分/树上启发式合并)
  8. 探秘react,一文弄懂react的基本使用和高级特性
  9. Kali Linux 秘籍 第二章 定制 Kali Linux
  10. 双机热备_涨知识 | 双机热备与备份一体机的联系及区别
  11. local lua 多个_Lua面向对象之多重继承、私密性详解
  12. MonGoDB 常见操作, 设置管理员和用户登入
  13. 2017 Multi-University Training Contest - Team 5:1001. Rikka with Candies(手写bitset)
  14. 像差与zernike多项式
  15. php跟python效率_python为何效率慢点?PHP跟Python的解释器都是C写的,PHP为什么能快点?...
  16. java网吧会员计费管理系统springboot+vue
  17. 甜在心馒头店通过泊松分布解决备货烦恼
  18. 安卓手机管理_安卓手机会越用越卡?关闭这几个功能,还可以用三年
  19. 麒麟子Cocos Creator实用技巧
  20. python学习之自动化运维(一):shell的使用

热门文章

  1. 【51CTO学院三周年】51cto学院的大数据培训之心路历程
  2. SqlServer2008到期升级企业版 密钥+图解
  3. apache2.2.25+mod_jk-apache-2.2.2.so+apache-tomcat-7.0.56集群
  4. 【079】用代码来创建 Android 控件
  5. 您知道为何要采用固定的迭代周期吗
  6. Vue涉及国家安全漏洞?尤雨溪亲自回应
  7. Redis大集群扩容性能优化实践
  8. 你是中层管理者?嗯,一个表面看似风光,实际却很 “鸡肋” 的重要岗位
  9. 源码级深挖AQS队列同步器
  10. 阿里巴巴Druid,轻松实现MySQL数据库加密!