口罩佩戴检测

一 题目背景

1.1 实验介绍

今年一场席卷全球的新型冠状病毒给人们带来了沉重的生命财产的损失。有效防御这种传染病毒的方法就是积极佩戴口罩。我国对此也采取了严肃的措施,在公共场合要求人们必须佩戴口罩。在本次实验中,我们要建立一个目标检测的模型,可以识别图中的人是否佩戴了口罩。

1.2 实验要求

  • 建立深度学习模型,检测出图中的人是否佩戴了口罩,并将其尽可能调整到最佳状态。
  • 学习经典的模型 MTCNNMobileNet 的结构。
  • 学习训练时的方法。

1.3 实验环境

实验使用重要_python_包:

import cv2 as cv
import numpy as np
import matplotlib.pyplot as plt
from tensorflow.keras.callbacks import ModelCheckpoint, ReduceLROnPlateau, EarlyStopping

由于担心平台_GPU时长不够用,所以在自己电脑上搭建了配套实验环境,由于电脑显卡CUDA_版本较老,所以最终本地配置如下:

  • Python: 3.8
  • Tensorflow-GPU: 2.3.0
  • Keras: 2.7.0

1.4 实验思路

针对目标检测的任务,可以分为两个部分:目标识别和位置检测。通常情况下,特征提取需要由特有的特征提取神经网络来完成,如 VGG、MobileNet、ResNet 等,这些特征提取网络往往被称为 Backbone 。而在 BackBone 后面接全连接层***(FC)***就可以执行分类任务。但 FC 对目标的位置识别乏力。经过算法的发展,当前主要以特定的功能网络来代替 FC 的作用,如 Mask-Rcnn、SSD、YOLO 等。我们选择充分使用已有的人脸检测的模型,再训练一个识别口罩的模型,从而提高训练的开支、增强模型的准确率。

常规目标检测:

本次案例:

图1 实验口罩佩戴检测流程

二 实验内容

2.1 已知文件与数据集

首先,导入已经写好的_python_文件并对数据集进行处理。

  • image 文件夹:图片分成两类,戴口罩的和没有戴口罩的
  • train.txt: 存放的是 image 文件夹下对应图片的标签
  • keras_model_data 文件夹:存放 keras 框架相关预训练好的模型

2.2 图片尺寸调整

将图片尺寸调整到网络输入的图片尺寸

2.3 制作训练时需要用到的批量数据集

图片生成器的主要方法:

  • fit(x, augment=False, rounds=1):计算依赖于数据的变换所需要的统计信息(均值方差等)。

  • flow(self, X, y, batch_size=32, shuffle=True, seed=None, save_to_dir=None, save_prefix='', save_format='png'):接收 Numpy 数组和标签为参数,生成经过数据提升或标准化后的 batch 数据,并在一个无限循环中不断的返回 batch 数据。

  • flow_from_directory(directory): 以文件夹路径为参数,会从路径推测 label,生成经过数据提升/归一化后的数据,在一个无限循环中无限产生 batch 数据。

结果:

Found 693 images belonging to 2 classes.
Found 76 images belonging to 2 classes.
{'mask': 0, 'nomask': 1}
{0: 'mask', 1: 'nomask'}

2.4 调用MTCNN

通过搭建 MTCNN 网络实现人脸检测

  • keras_py/mtcnn.py 文件是在搭建 MTCNN 网络。

  • keras_py/face_rec.py 文件是在绘制人脸检测的矩形框。

    这里直接使用现有的表现较好的 MTCNN 的三个权重文件,它们已经保存在datasets/5f680a696ec9b83bb0037081-momodel/data/keras_model_data 文件夹下

2.5 加载预训练模型MobileNet

# 加载 MobileNet 的预训练模型权重
weights_path = basic_path + 'keras_model_data/mobilenet_1_0_224_tf_no_top.h5'

2.6 训练模型

2.6.1 加载和保存

为了避免训练过程中遇到断电等突发事件,导致模型训练成果无法保存。我们可以通过 ModelCheckpoint 规定在固定迭代次数后保存模型。同时,我们设置在下一次重启训练时,会检查是否有上次训练好的模型,如果有,就先加载已有的模型权重。这样就可以在上次训练的基础上继续模型的训练了。

2.6.2 手动调整学习率

学习率的手动设置可以使模型训练更加高效。这里我们设置当模型在三轮迭代后,准确率没有上升,就调整学习率。

# 学习率下降的方式,acc三次不下降就下降学习率继续训练
reduce_lr = ReduceLROnPlateau(monitor='accuracy',  # 检测的指标factor=0.5,     # 当acc不下降时将学习率下调的比例patience=3,     # 检测轮数是每隔三轮verbose=2       # 信息展示模式)
2.6.3 早停法

当我们训练深度学习神经网络的时候通常希望能获得最好的泛化性能。但是所有的标准深度学习神经网络结构如全连接多层感知机都很容易过拟合。当网络在训练集上表现越来越好,错误率越来越低的时候,就极有可能出现了过拟合。早停法就是当我们在检测到这一趋势后,就停止训练,这样能避免继续训练导致过拟合的问题。

early_stopping = EarlyStopping(monitor='val_accuracy',  # 检测的指标min_delta=0.0001,         # 增大或减小的阈值patience=3,         # 检测的轮数频率verbose=1            # 信息展示的模式)
2.6.4 乱序训练数据

打乱txt的行,这个txt主要用于帮助读取数据来训练,打乱的数据更有利于训练。

    np.random.seed(10101)np.random.shuffle(lines)np.random.seed(None)
2.6.5 训练模型

一次训练集大小设定为64,优化器使用Adam,初始学习率设定为0.001,优化目标为accuracy,总的学习轮次设定为20轮。(通过多次实验测定,在这些参数条件下,准确率较高)

# 一次的训练集大小
batch_size = 64
# 编译模型
model.compile(loss='binary_crossentropy',  # 二分类损失函数   optimizer=Adam(lr=0.001),   # 优化器metrics=['accuracy'])        # 优化目标
# 训练模型
history = model.fit(train_generator,    epochs=20, # epochs: 整数,数据的迭代总轮数。# 一个epoch包含的步数,通常应该等于你的数据集的样本数量除以批量大小。steps_per_epoch=637 // batch_size,validation_data=test_generator,validation_steps=70 // batch_size,initial_epoch=0, # 整数。开始训练的轮次(有助于恢复之前的训练)。callbacks=[checkpoint_period, reduce_lr])

三 算法描述

3.1 MTCNN

  • 三阶段的级联(cascaded)架构
  • coarse-to-fine 的方式
  • new online hard sample mining 策略
  • 同时进行人脸检测和人脸对齐
  • state-of-the-art 性能

图2 MTCNN架构

3.2 MobileNet

图3 MobileNet架构

_MobileNet_的网络结构如图3所示。首先是一个3x3的标准卷积,然后后面就是堆积depthwise separable convolution,并且可以看到其中的部分depthwise convolution会通过strides=2进行down sampling。然后采用average poolingfeature变成1x1,根据预测类别大小加上全连接层,最后是一个softmax层。

四 求解结果

最终确定最佳取值为batch_size=64lr=0.0001epochs=20,其它参数如下,连续训练两次,可以获得最佳结果。此处仅展示两个参数条件下的结果作为对比

# 一次的训练集大小
batch_size = 64
# 编译模型
model.compile(loss='binary_crossentropy',  # 二分类损失函数   optimizer=Adam(lr=0.001),   # 优化器metrics=['accuracy'])        # 优化目标
# 训练模型
history = model.fit(train_generator,    epochs=20, # epochs: 整数,数据的迭代总轮数。# 一个epoch包含的步数,通常应该等于你的数据集的样本数量除以批量大小。steps_per_epoch=637 // batch_size,validation_data=test_generator,validation_steps=70 // batch_size,initial_epoch=0, # 整数。开始训练的轮次(有助于恢复之前的训练)。callbacks=[checkpoint_period, reduce_lr])
条件1:
batch_size=48, lr=0.001epochs=20,对训练之后的模型进行测试,得到结果如下:

图4 条件1 loss曲线

loss曲线可以看出,随着训练迭代次数的加深,验证集上的损失在逐渐的减小,最终稳定在0.2左右;而在训练集上loss始终在0附近。

图5 条件1 acc曲线

从验证集和测试集的准确率变化曲线上可以看出,随着训练轮次的增加,验证集的准确率逐渐上升,最终稳定在96%左右,效果还是不错的。

图6 条件1 测试样例1

使用样例照片进行测试,首先人脸识别部分顺利识别到了五张人脸,但是口罩识别部分将一个没有带口罩的人识别成了带着口罩的人,说明还有进步空间,实际错误率达到了20%。

图7 条件1 测试样例2

另一张样例照片的测试结果同样是人脸识别部分没有出现问题,正确识别到了四张人脸,但是同样将一个没有带口罩的人识别成了带有口罩的人。

平台测试:

后续通过调整各项参数并打乱测试集和训练集图片顺序来进行了多次实验,最终确定的最佳状态如下:

条件2:
batch_size=64, lr=0.0001epochs=20,对训练之后的模型进行测试,得到结果如下:

图8 条件2 loss曲线

观察准确率曲线可以看出,在该条件下,验证集上的准确率最终稳定在98%附近,效果非常的好,说明我们做出的一些优化还是具有一定效果的。

图9 条件2 acc曲线

观察此条件下的loss曲线可以看到最终验证集的loss稳定在0.2左右,训练集的loss非常小,基本趋近于0

图10 条件2 测试样例1

使用两张测试样例对模型进行检测,第一张图片所有检测点均正确,正确识别出了五张人脸并且口罩佩戴检测均正确,识别正确率100%。

图11 条件2 测试样例2

第二章测试样例上,正确识别出了4张人脸并且口罩佩戴检测结果均正确。

两张测试样例上所有检测点检测结果均正确,说明在此参数条件下,模型识别效果较好,达到了口罩佩戴检测的要求。

平台测试:

条件3:

使用更多测试样例发现_MTCNN_人脸识别部分存在不能正确识别人脸的问题,故通过多次实验和测试,修改了mask_rec()的门限函数权重self.threshold,由原来的self.threshold = [0.5,0.6,0.8] 修改为self.threshold = [0.4,0.15,0.65]

在本地使用更多自选图片进行测试,发现人脸识别准确率有所提升。在条件2训练参数不变的情况下,使用同一模型进行平台测试,结果如下:

平台测试成绩有所提升。

条件4:

继续调整mask_rec()的门限函数权重self.threshold,通过系统测试反馈来决定门限函数的权重,通过多次测试,由原来的self.threshold = [0.4,0.15,0.65] 修改为self.threshold = [0.4,0.6,0.65]

平台测试,结果如下:

平台测试成绩有所提升,达到95分。

为了达到条件4所展示的效果,对门限函数的数值进行了大量的尝试,根据提交测试的反馈结果,最终确定数值为条件4时,可以达到最优。由于不知道后台测试图片是什么且没有反馈数据,所以最终再次修改人脸识别的门限函数或者修改参数重新训练口罩识别模型依旧没有提升。

五 比较分析

验证集准确率

测试样例结果

平台成绩

条件1

96%

7/9

77.5

条件2

98%

9/9

88.33333334

条件3

98%

9/9

90

条件4

98%

9/9

95

最终通过不断调试与优化算法,得到了95分的平台成绩。

六 心得与感想

本次实验过程中主要使用了_keras方法进行训练,由于初次使用这些方法,所以前期实现的过程相对困难。最初我想通过调用GPU资源来进行训练,所以给自己的电脑配套安装了tensorflow-gpu、CUDA等等配套的软件和包,由于个人电脑的显卡版本较老,所以安装的过程也是非常的曲折。好在最终安装好了所有的东西,但是由于显卡显存比较小,所以bath_size大小一直上不去,最大只能给到32,不过影响也不大。调整参数的过程花费了很多的时间,优化算法也花费了很多的时间。之后又对门限函数进行了修改,虽然过程非常的辛苦,但最终的结果还是很不错的,最终整体达到95_分,在两张给定的测试样例上所有检测点都是正确的,由于不知道平台的五张检测照片是什么,所以不知道到底出错在哪里,希望之后平台可以反馈一些修改意见~。总的来说在过程中收获还是很大的,受益匪浅。

训练源代码:

import warnings
# 忽视警告
warnings.filterwarnings('ignore')
import os
import matplotlib
import cv2 as cv
import numpy as np
import matplotlib.pyplot as plt
from tensorflow.keras.callbacks import ModelCheckpoint, ReduceLROnPlateau, EarlyStopping
from tensorflow.keras.applications.imagenet_utils import preprocess_input
from tensorflow.keras import backend as K
from tensorflow.keras.optimizers import Adam
K.image_data_format() == 'channels_last'
from keras_py.utils import get_random_data
from keras_py.face_rec import mask_rec
from keras_py.face_rec import face_rec
from keras_py.mobileNet import MobileNet
from tensorflow.keras.preprocessing.image import ImageDataGenerator
# 数据集路径
basic_path = "./datasets/5f680a696ec9b83bb0037081-momodel/data/"def letterbox_image(image, size):  # 调整图片尺寸,返回经过调整的照片new_image = cv.resize(image, size, interpolation=cv.INTER_AREA)return new_image
read_img = cv.imread("test1.jpg")
print("调整前图片的尺寸:", read_img.shape)
read_img = letterbox_image(image=read_img, size=(50, 50))
print("调整前图片的尺寸:", read_img.shape)def processing_data(data_path, height, width, batch_size=32, test_split=0.1):  # 数据处理,batch_size默认大小为32train_data = ImageDataGenerator(# 对图片的每个像素值均乘上这个放缩因子,把像素值放缩到0和1之间有利于模型的收敛rescale=1. / 255,  # 浮点数,剪切强度(逆时针方向的剪切变换角度)shear_range=0.1,  # 随机缩放的幅度,若为浮点数,则相当于[lower,upper] = [1 - zoom_range, 1+zoom_range]zoom_range=0.1,# 浮点数,图片宽度的某个比例,数据提升时图片水平偏移的幅度width_shift_range=0.1,# 浮点数,图片高度的某个比例,数据提升时图片竖直偏移的幅度height_shift_range=0.1,# 布尔值,进行随机水平翻转horizontal_flip=True,# 布尔值,进行随机竖直翻转vertical_flip=True,# 在 0 和 1 之间浮动。用作验证集的训练数据的比例validation_split=test_split  )# 接下来生成测试集,可以参考训练集的写法test_data = ImageDataGenerator(rescale=1. / 255,validation_split=test_split)train_generator = train_data.flow_from_directory(# 提供的路径下面需要有子目录data_path, # 整数元组 (height, width),默认:(256, 256)。 所有的图像将被调整到的尺寸。target_size=(height, width),# 一批数据的大小batch_size=batch_size,# "categorical", "binary", "sparse", "input" 或 None 之一。# 默认:"categorical",返回one-hot 编码标签。class_mode='categorical',# 数据子集 ("training" 或 "validation")subset='training', seed=0)test_generator = test_data.flow_from_directory(data_path,target_size=(height, width),batch_size=batch_size,class_mode='categorical',subset='validation',seed=0)return train_generator, test_generator
# 数据路径
data_path = basic_path + 'image'# 图像数据的行数和列数
height, width = 160, 160# 获取训练数据和验证数据集
train_generator, test_generator = processing_data(data_path, height, width)# 通过属性class_indices可获得文件夹名与类的序号的对应字典。
labels = train_generator.class_indices
print(labels)# 转换为类的序号与文件夹名对应的字典
labels = dict((v, k) for k, v in labels.items())
print(labels)
pnet_path = "./datasets/5f680a696ec9b83bb0037081-momodel/data/keras_model_data/pnet.h5"
rnet_path = "./datasets/5f680a696ec9b83bb0037081-momodel/data/keras_model_data/rnet.h5"
onet_path = "./datasets/5f680a696ec9b83bb0037081-momodel/data/keras_model_data/onet.h5"# 加载 MobileNet 的预训练模型权重
weights_path = basic_path + 'keras_model_data/mobilenet_1_0_224_tf_no_top.h5'
# 图像数据的行数和列数
height, width = 160, 160
model = MobileNet(input_shape=[height,width,3],classes=2)
model.load_weights(weights_path,by_name=True)
print('加载完成...')
def save_model(model, checkpoint_save_path, model_dir):  # 保存模型if os.path.exists(checkpoint_save_path):print("模型加载中")model.load_weights(checkpoint_save_path)print("模型加载完毕")checkpoint_period = ModelCheckpoint(# 模型存储路径model_dir + 'ep{epoch:03d}-loss{loss:.3f}-val_loss{val_loss:.3f}.h5',# 检测的指标monitor='val_acc',# ‘auto’,‘min’,‘max’中选择mode='max',# 是否只存储模型权重save_weights_only=False,# 是否只保存最优的模型save_best_only=True,# 检测的轮数是每隔2轮period=2)return checkpoint_period
checkpoint_save_path = "./results/last_one88.h5"
model_dir = "./results/"
checkpoint_period = save_model(model, checkpoint_save_path, model_dir)
# 学习率下降的方式,acc三次不下降就下降学习率继续训练
reduce_lr = ReduceLROnPlateau(monitor='accuracy',  # 检测的指标factor=0.5,     # 当acc不下降时将学习率下调的比例patience=3,     # 检测轮数是每隔三轮verbose=2       # 信息展示模式)
early_stopping = EarlyStopping(monitor='val_accuracy',  # 检测的指标min_delta=0.0001,         # 增大或减小的阈值patience=3,         # 检测的轮数频率verbose=1            # 信息展示的模式)
# 一次的训练集大小
batch_size = 64
# 图片数据路径
data_path = basic_path + 'image'
# 图片处理
train_generator, test_generator = processing_data(data_path, height=160, width=160, batch_size=batch_size, test_split=0.1)
# 编译模型
model.compile(loss='binary_crossentropy',  # 二分类损失函数   optimizer=Adam(lr=0.001),   # 优化器metrics=['accuracy'])        # 优化目标
# 训练模型
history = model.fit(train_generator,    epochs=20, # epochs: 整数,数据的迭代总轮数。# 一个epoch包含的步数,通常应该等于你的数据集的样本数量除以批量大小。steps_per_epoch=637 // batch_size,validation_data=test_generator,validation_steps=70 // batch_size,initial_epoch=0, # 整数。开始训练的轮次(有助于恢复之前的训练)。callbacks=[checkpoint_period, reduce_lr])
# 保存模型
model.save_weights(model_dir + 'temp.h5')
plt.plot(history.history['loss'],label = 'train_loss')
plt.plot(history.history['val_loss'],'r',label = 'val_loss')
plt.legend()
plt.show()plt.plot(history.history['accuracy'],label = 'acc')
plt.plot(history.history['val_accuracy'],'r',label = 'val_acc')
plt.legend()
plt.show()

基于Python实现的口罩佩戴检测相关推荐

  1. 基于PyTorch+YOLOv4的口罩佩戴检测,附数据集

    向AI转型的程序员都关注了这个号???????????? 机器学习AI算法工程   公众号:datayx 本项目是利用YOLOv4进行口罩佩戴检测,使用PyTorch实现.虽然现在国内疫情基本得到有效 ...

  2. 毕业设计 : 基于深度学习的口罩佩戴检测【全网最详细】 - opencv 卷积神经网络 机器视觉 深度学习

    文章目录

  3. 使用YOLOv5实现人脸口罩佩戴检测(详细)

    前言 最近把李沐大神<动手学深度学习v2>的目标检测部分学完了,就想找一个项目练练手,学以致用嘛,觉着人脸口罩佩戴检测比较符合当下时代背景,所以就选择了这个项目,也是前几天刚刚完成的,写下 ...

  4. 人体口罩佩戴检测实战

    基于yolov3的人体口罩佩戴检测 由于2020年新型冠状病毒,针对公共场合检测人员是否佩戴口罩,故用YOLOV3完成一个人体口罩佩戴检测. 效果展示 环境 工欲善其事必先利其器 Python: 3. ...

  5. 目标检测论文解读复现之十八:基于注意力机制的光线昏暗条件下口罩佩戴检测

    前言 此前出了目标改进算法专栏,但是对于应用于什么场景,需要什么改进方法对应与自己的应用场景有效果,并且多少改进点能发什么水平的文章,为解决大家的困惑,此系列文章旨在给大家解读最新目标检测算法论文,帮 ...

  6. 基于卷积神经网络的口罩佩戴识别与检测

    摘要 MobileNetV2模型概述与识别结果分析 1.基础理论--深度可分离卷积(DepthWise操作) 2.MobileNetV1遗留的问题 3.MobileNet V2的创新点 4.本文网络结 ...

  7. 基于YOLOv5的口罩佩戴检测方法

    摘 要 正确的佩戴口罩对现阶段有效减低人员之间感染新型冠状病毒具有重要意义.基于YOLOv5在图像识别检测领域的优异性能,本文研究基于基于YOLOv5的口罩佩自动戴检测方法.首先从网络和真实生活中中寻 ...

  8. 基于YOLOv3的口罩佩戴检测

    摘 要 为解决市民口罩佩戴目标检测中因小尺寸目标较多导致其识别精度不高的问题,提出一种基于 YOLOv3改进的算法 M_YOLOv3.重构特征金字塔机制,把原本3*3的类金字塔结构扩建为4*4尺寸,把 ...

  9. 基于YOLOv5s 的口罩佩戴检测

    现阶段新冠肺炎疫情虽然已经放开,但是我们仍不能放松警惕,因此口罩的佩戴极其重要.针对这一现象,笔者提出了基于YOLOv5s的检测是否佩戴口罩.采用了 YOLOv5s.YOLOv3和YOLOv4检测算法 ...

最新文章

  1. Java的Socket通信----通过 Socket 实现 TCP 编程之多线程demo(2)
  2. mysql 日志还原数据库_通过Mysql-bin日志恢复还原数据
  3. 51nod1429 巧克力
  4. 使用for循环嵌套实现乘法口诀表
  5. 检测噪声大小的c语言程序,单片机课程设计(论文)_基于AT89C51的噪音检测自适应系统设计.doc...
  6. django项目验证码(PIL库实现)
  7. 苹果“撞上”反垄断,围墙花园能否坚挺?
  8. 隐藏十年的 Sudo 漏洞 (CVE-2021-3156) 还影响 macOS 和 IBM IAX
  9. 用pycharm编写程序调用ADS仿真历程
  10. API是什么意思,具体是什么?
  11. android 网络编程 笔记,【Android 应用开发】Android 网络编程 API笔记
  12. 手把手教你进行Pycharm活动模板配置
  13. ROS2与C++入门教程-在C++包里增加python支持
  14. 《中国程序化广告技术生态图》2015年三月号更新发布
  15. 华为m6更新鸿蒙吗,华为手机升级鸿蒙的方法,有哪位升级成功的吗?
  16. python在大数据分析中的应用
  17. 不限速,无需登录就能下载的网盘工具,非常适合您!
  18. Windows的Safari(可能)已死:如何迁移到另一个浏览器
  19. AE软件+模板+教程+各种模板资料+安装教程(自己花钱买的)
  20. datatable筛选条件_在DataTable中执行DataTable.Select(条件)

热门文章

  1. 一键卸载cad,强力卸载cad,强力删除autodesk,完美卸载max,彻底卸载revit,彻底删除autodesk的任何软件
  2. 计算机图形学和工程图学,计算机图形学与印刷工程我与工程图学及计算机图形学...
  3. 无线控制器 dhcp服务器,H3C无线控制器典型配置案例集(V5)-6W113
  4. 物联网如何推动制造业迈向“工业4.0”?
  5. [BZOJ3928/4048]Outer space invaders
  6. 计算机专业的学生简历范文,计算机专业学生的简历范文精选
  7. 华为ai服务器芯片,华为AI芯片有什么用特殊在哪 与普通芯片有什么区别
  8. 如果你自己不做出努力的样子,即使人家想拉你,都不知道你的手在哪。
  9. OpenGLSL中处理HDR.ToneMapping(HLG)
  10. 求2个数的最小公倍数