吸烟检测 yolov5开源推荐
【项目实战】YOLOV5 +实时吸烟目标检测+手把手教学+开源数据
文末有数据下载链接。
文章目录
- 一、项目展示
- 二、项目资源共享
- 1:训练图片:香烟图片+吸烟手势+烟雾
- 三、实践教学
- 3.1环境配置
- 3.2数据标注与预处理
- 3.2.1附上自己的Lablimg简易教学:
- 3.2.2 几个自己写的脚本用于转换数据集与训练前准备
- 3.2.3 切分训练集与测试集:
- 四、开始训练
- 4.1:开始训练
- 4.2:训练过程
- 4.3:训练优化
- 4.4 训练参数:
- 五、实时检测
- 运行detect.py即可
- 六、YOLO系列可视化对比
- 七、写在后面
- 全部链接传送门
首先:附上Github传送门:GitHub - CVUsers/Smoke-Detect-by-YoloV5: Yolov5 real time smoke detection system,然后根据本文手把手配置环境+训练自己数据,或者使用我训练好的模型进行使用。用yolov5s训练好的已经放在了里面,用大模型训练的由于大小原因,需要的话可以戳最下方微信私聊我,免费。
一、项目展示
左图为原图,右图为推理后的图片,以图片方式展示,视频流和实时流也能达到这个效果,由于视频大小原因,暂不上传,感兴趣的朋友细细往下看,并点个关注哟!
测试配置:GTX1050ti,不堪入目,但是实验效果还不错,再这样弱的配置下,使用YOLOv5s,YOlov5m等皆能达到30fps。
二、项目资源共享
1:训练图片:香烟图片+吸烟手势+烟雾
香烟图片:自己编写爬虫爬了1w张,筛选下来有近1000张可用,以及其他途径获取到的,总共暂时5k张,未来会越来越多,后续需要的可以私聊我,现在先放出5k张图片,另外加上自己辛辛苦苦使用Labelimg标注的几千张图片的XML文件也一并送上,香烟图片质量可查传送门:链接:https://pan.baidu.com/s/1t8u94x51TO7pLciU8AoaiQ
提取码:n2wr:如下图
吸烟手势图片:
火灾+烟雾数据集:
项目框架:YOLOV5——Pytorch实现
标注工具:Labelimg
附上Windows工具:在我上面的github里面有哟:下载好放置桌面比较方便。
三、实践教学
3.1环境配置
本例以使用YOLov5作者源码步骤:
Cython
numpy==1.17
opencv-python
torch>=1.4
matplotlib
pillow
tensorboard
PyYAML>=5.3
torchvision
scipy
tqdm
我的是torch 1.5 gpu版
在git clone下作者的v5源码后: 目录切至requirement.txt 下然后
pip install -U -r requirements.txt
如果需要使用混合精度模型来做训练:安装Apex
git clone https://github.com/NVIDIA/apex && cd apex 然后切换至目录下
pip install -v --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" . --user && cd .. && rm -rf apex
3.2数据标注与预处理
以吸烟数据集为例:
在百度网盘下载好我的数据集和XML
若是想重新训练的话
3.2.1附上自己的LABLIMG简易教学:
标注好会生成XML文件:XML里面包含了四个点坐标和图片的名字与size。
然后在data下新建几个文件夹:
将我们的XML文件放至Annotations
将我们的图片放到images
在ImageSets中新建Main 和test.txt 和train.txt
再新建labels存放接下来生成的标签
3.2.2 几个自己写的脚本用于转换数据集与训练前准备
第一个:XML文件转label.txt文件
首先写个os操作读一下data/images中图片:这个几行搞定,要注意要写成我这样的哟 (不用生成.jpg)可以通过split(’.’)再复制到ImageXML中
然后运行voc_label.py脚本:
# 坐标xml转txt
import os
import xml.etree.ElementTree as ETclasses = ["smoke"] # 输入名称,必须与xml标注名称一致def convert(size, box):print(size, box)dw = 1. / size[0]dh = 1. / size[1]x = (box[0] + box[1]) / 2.0y = (box[2] + box[3]) / 2.0w = box[1] - box[0]h = box[3] - box[2]x = x * dww = w * dwy = y * dhh = h * dhreturn (x, y, w, h)def convert_annotation(image_id):print(image_id)in_file = open(r'./data/Annotations/%s.xml' % (image_id), 'rb') # 读取xml文件路径out_file = open('./data/labels/%s.txt' % (image_id), 'w') # 需要保存的txt格式文件路径tree = ET.parse(in_file)root = tree.getroot()size = root.find('size')w = int(size.find('width').text)h = int(size.find('height').text)for obj in root.iter('object'):cls = obj.find('name').textif cls not in classes: # 检索xml中的名称continuecls_id = classes.index(cls)xmlbox = obj.find('bndbox')b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),float(xmlbox.find('ymax').text))bb = convert((w, h), b)out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')image_ids_train = open('./ImageXML.txt').read().strip().split() # 读取xml文件名索引for image_id in image_ids_train:print(image_id)convert_annotation(image_id)
需要注意,若是有中文路径的话,请这样读文件:
open(r'./data/Annotations/%s.xml' % (image_id), 'rb')
- 1
接下来就会在data/labels中看到:所有的txt标签
每个txt文本会生成一共5个数字:第一个是整形的数,表示类别:0代表第一类,以此类推,后面四个数字是坐标通过归一化后的表示。
3.2.3 切分训练集与测试集:
执行train_test_split.py
import os
import randomtrainval_percent = 1 # 可自行进行调节
train_percent = 1
xmlfilepath = './data/Annotations'
txtsavepath = './data/ImageSets\Main'
total_xml = os.listdir(xmlfilepath)num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)# ftrainval = open('ImageSets/Main/trainval.txt', 'w')
ftest = open('./data/ImageSets/Main/test.txt', 'w')
ftrain = open('./data/ImageSets/Main/train.txt', 'w')
# fval = open('ImageSets/Main/val.txt', 'w')for i in list:name = total_xml[i][:-4] + '\n'if i in trainval:# ftrainval.write(name)if i in train:ftest.write(name)# else:# fval.write(name)else:ftrain.write(name)# ftrainval.close()
ftrain.close()
# fval.close()
ftest.close()
其中trainval_percent = 1表示验证集比例,1代表1:9 如果有5000张图片,就会切割成4500张训练集,和500张验证集。
trainval_percent = 1 # 可自行进行调节
- 1
运行path_trans补全路径,并写入train.txt
import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import joinsets = ['train', 'test']classes = ['smoke'] # 自己训练的类别def convert(size, box):dw = 1. / size[0]dh = 1. / size[1]x = (box[0] + box[1]) / 2.0y = (box[2] + box[3]) / 2.0w = box[1] - box[0]h = box[3] - box[2]x = x * dww = w * dwy = y * dhh = h * dhreturn (x, y, w, h)def convert_annotation(image_id):in_file = open('data/Annotations/%s.xml' % (image_id), 'rb')out_file = open('data/labels/%s.txt' % (image_id), 'w')tree = ET.parse(in_file)root = tree.getroot()size = root.find('size')w = int(size.find('width').text)h = int(size.find('height').text)for obj in root.iter('object'):difficult = obj.find('difficult').textcls = obj.find('name').textif cls not in classes or int(difficult) == 1:continuecls_id = classes.index(cls)xmlbox = obj.find('bndbox')b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),float(xmlbox.find('ymax').text))bb = convert((w, h), b)out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')wd = getcwd()
for image_set in sets:if not os.path.exists('data/labels/'):os.makedirs('data/labels/')image_ids = open('data/ImageSets/Main/%s.txt' % (image_set)).read().strip().split()list_file = open('data/%s.txt' % (image_set), 'w')for image_id in image_ids:list_file.write('data/images/%s.jpg\n' % (image_id))convert_annotation(image_id)list_file.close()
接下来编写yaml文本:
见smoke.yaml
将我们上一步生成的train.txt 和test.txt 补全路径后的这两个txt路径写入到yaml中,然后nc:修改为自己类别的数量,以及names【‘smoke’】
四、开始训练
4.1:开始训练
在上面我们做好数据预处理后,就可以开始训练了,上面的一些处理步骤,每个人都可能不同,不过大体上思路是一致的。
接下来我们可以进行预训练,下载官方的预训练模型:
yolov5s yolov5m yolov5l yolov5x来 我在我的github中方了yolov5s,比较小,只有25mb,专门为移动端考虑了,真好。
当然也可以不使用预训练模型,使用与否,在总时间上是差不多的,不过
为什么要使用预训练模型?
作者已尽其所能设计了基准模型。我们可以在自己的数据集上使用预训练模型,而不是从头构建模型来解决类似的自然语言处理问题。
尽管仍然需要进行一些微调,但它已经为我们节省了大量的时间:通常是每个损失下降更快和计算资源节省。
加快梯度下降的收敛速度
更有可能获得一个低模型误差,或者低泛化误差的模型
降低因未初始化或初始化不当导致的梯度消失或者梯度爆炸问题。此情况会导致模型训练速度变慢,崩溃,直至失败。
其中随机初始化,可以打破对称性,从而保证不同的隐藏单元可以学习到不同的东西
接下来开始训练:
python train.py --data data/smoke.yaml --cfg models/yolov5s.yaml --weights weights/yolov5s.pt --batch-size 10 --epochs 100
- 1
- 2
解释一下:
我们–data data/smoke.yaml 中就是在smoke.yaml中撰写的训练代码路径和类别等data,通过这个获取训练的图片和label标签等。
然后-cfg models/yolov5s.yaml 和 --weights weights/yolov5s.pt是获取配置和预训练模型权重
batch-size 10 大家都懂,default是16,大家可以改成16,在yolov5s中模型参施不多,百万左右,所以显存消耗不多,我的配置很差,显存4g,在使用yolov5m中以及不能调到16。
会报cuda out of memory 报错,就把batch size降低就行。
然后最后是epoch,这个也不用解释,我在使用yolov5m训练5k张图片在100epoch中花费 了24小时,一个epoch13分钟。
训练过程中,会慢慢在runs中生成tensorboard,可视化损失下降
当然也可以在本地稍微看看:
这幅图中,我们的类别只有1个,第三幅图显示了我们数据中的宽高比,归一化后,普遍在0.1左右,说明数据确实很小,也会面临模糊问题,导致数据质量降低。
4.2:训练过程
分别是epoch,显存消耗…其他的大家可以查看源码
4.3:训练优化
使用混合精度模型
在前面配置好环境后:
mixed_precision = True
try: # Mixed precision training https://github.com/NVIDIA/apexfrom apex import amp
except:print('Apex recommended for faster mixed precision training: https://github.com/NVIDIA/apex')mixed_precision = False # not installed
- 1
- 2
- 3
- 4
- 5
- 6
判断是否可用apex做混合精度模型训练
然后
if mixed_precision:model, optimizer = amp.initialize(model, optimizer, opt_level='O1', verbosity=0)
- 1
- 2
在optimizer中amp初始化一下 o1代表级别,注意是欧 不是零。
接着:
if mixed_precision:with amp.scale_loss(loss, optimizer) as scaled_loss:scaled_loss.backward()
- 1
- 2
- 3
优化反向传播。
组装到cuda训练
opt.img_size.extend([opt.img_size[-1]] * (2 - len(opt.img_size))) # extend to 2 sizes (train, test)device = torch_utils.select_device(opt.device, apex=mixed_precision, batch_size=opt.batch_size)if device.type == 'cpu':mixed_precision = False
- 1
- 2
- 3
- 4
4.4 训练参数:
详情参见注释。
五、实时检测
运行DETECT.PY即可
其中,推理一张图片,那么就在–source中的default写上图片路径,
也可以如图写上整个图片文件夹,这样会检测所有图片。
也可以写上视频地址和视频文件夹,检测所有视频,存放于inference 的out中。
改成0 就是实时检测了~默认电脑摄像头,当然也可以改成手机。这个也很简单,需要的可以私聊我,微信会放在最下方。
帧率很高,普通设备也能达到30+,可谓是速度极快,要是大家设备好一些,可以试一下YOLOv5L和YOLOV5x,跑完了可以私聊分享一下,与我交流。
六、YOLO系列可视化对比
类别100类
每类300张图片
测试图片1087张,阀值0.5 ,预测正确
yolov3-tiny yolov4 yolov5
预测结果 737 954 955
模型大小 33.97M 246.19M 28.99M(yolov5s.pt)
yolov5s的精度和yolov4差不多,但模型大小只有yolov4的11.77%(个人数据集,数据可能有点偏差,但还是能说明问题的)
实时对比
附上视频:https://www.bilibili.com/video/av328439400/
链接传送门
链接:https://pan.baidu.com/s/1vZ02S8lFAVodND4HTh2NWw
提取码:kkbb
解压密码 smoke
YOLOv5 原作者github:https://github.com/ultralytics/yolov5
我的github :GitHub - CVUsers/Smoke-Detect-by-YoloV5: Yolov5 real time smoke detection system 欢迎star ,将长期更新!
吸烟检测 yolov5开源推荐相关推荐
- GitHub YOLOv5 开源代码项目系列讲解(五)------链接手机摄像头实现目标检测
本专栏将从安装到实例运用全方位系列讲解 GitHub YOLOv5 开源代码. 专栏地址:GitHub YOLOv5 开源代码项目系列讲解 目录 1 手机下载 "IP摄像头" AP ...
- 《深度学习与目标检测 YOLOv5》
<深度学习与目标检测 YOLOv5> flyfish 基础 深度学习基础 - 向量 深度学习基础 - 累加符号和连乘符号 深度学习基础 - 最大似然估计 深度学习基础 - 朴素贝叶斯 深度 ...
- 目标检测 YOLOv5 - 如何提高模型的指标,提高精确率,召回率,mAP等
目标检测 YOLOv5 - 如何提高模型的指标,提高精确率,召回率,mAP等 flyfish 文中包括了YOLOv5作者分享的提高模型指标小技巧和吴恩达(Andrew Ng)在做缺陷检测项目( ste ...
- 适用于工业场景的吸烟检测
吸烟检测思路 吸烟检测一般选择目标检测方法,本文选用的yolov5进行训练检测模型 一阶段式检测 常规的检测思路是一阶段解决方式,直接在输入的原图上进行一次目标检测,这种方式是最常见且最直接,一般适用 ...
- 目标检测 YOLOv5 - YOLOv5:v6版本多机多卡训练出现的错误及解决方案
2021年4月份发布的 YOLOv5:v5版本,2021年10月份发布的 YOLOv5:v6版本 发布了更小的Nano模型YOLOv5n和YOLOv5n6 一. 改进的方面 整合了 Roboflow, ...
- GitHub上YOLOv5开源代码的训练数据定义
GitHub上YOLOv5开源代码的训练数据定义 代码地址:https://github.com/ultralytics/YOLOv5 训练数据定义地址:https://github.com/ultr ...
- 1500+ FPS!目前最快的CNN人脸检测算法开源
1500+ FPS!目前最快的CNN人脸检测算法开源 项目地址: https://github.com/ShiqiYu/libfacedetection 深圳大学的于仕琪老师发布的人脸检测库:libf ...
- KDD Cup 2021:时间序列异常检测问题开源方案
KDD Cup 2021:时间序列异常检测 本次赛题的数据为时序数据,针对每条时序记录,需要选手完成具体的异常点定位. 文件的命名即分割了训练集和测试集,如下所示 <id>_<nam ...
- 深度学习和目标检测系列教程 3-300:了解常见的目标检测的开源数据集
@Author:Runsen 计算机视觉中具有挑战性的主题之一,对象检测,可帮助组织借助数字图片作为输入来理解和识别实时对象.大量的论文基于常见的目标检测的开源数据集而来,因此需要了解常见的目标检测的 ...
最新文章
- hdu 2514 Another Eight Puzzle
- ParlAI:Facebook开源的一个AI对话框架
- VTK:PolyData之ExtractSelection
- Pycharm SSH 容器中的python环境
- 【原创】大叔经验分享(6)Oozie如何查看提交到Yarn上的任务日志
- 国潮正当时——2021百度国货用户洞察
- Spring AOP实例——异常处理和记录程序执行时间
- IOS开发~GCD--讲的巨详细,而且还有例子工程
- python实现不使用额外空间去除重复元素
- 【已解决】SVN设置为中文 最全面
- if else 条件语句
- 滴滴开源基于金融场景的Vuejs组件库Mand Mobile
- cadence导入dxf文件_PCB原创|cadence allegro导入DXF文件操作步骤
- 酒水知识(六大基酒之伏特加_Vodka)
- 白苹果了怎么办_iPhone 白苹果怎么办?这里有攻略!
- 【​观察】从移动计算当道 看高通“高举高打”背后的势能
- python-完整的for循环语法
- 直流负载线和交流负载线静态工作点分析,与非线性失真类型分析
- american主板网卡灯关机后还亮_七彩虹主板设置概述.pdf
- PCB布线数字地、模拟地、电源地,单点接地抗干扰
热门文章
- golang 编译运行出错:imported and not used: log
- Duilib界面库学习笔记
- java中遍历map的几种方法介绍
- 剖析 Linux hypervisor
- 堆密度测定的意义_堆密度的测量
- php imagecreate 白色,ImageCreateTrueColor白色背景问题
- php 根据位置显示地图,php通过地址获得百度地图经纬度(地理编码)
- 标注工具_语料标注工具(2)
- 大脑构造图与功能解析_锻炼改变大脑
- 量子计算机神器,量子计算技术再获神器 科学家开发出新的成像技术