YOLO,是You Only Look Once的缩写,一种基于深度卷积神经网络的物体检测算法,YOLO v3是YOLO的第3个版本,检测算法更快更准。

本文源码:https://github.com/SpikeKing/keras-yolo3-detection

欢迎Follow我的GitHub:https://github.com/SpikeKing

YOLO v3已经提供 COCO(Common Objects in Context)数据集的模型参数。我们可以把COCO的模型参数作为预训练参数,再结合已有的数据集,创建自己的检测算法。

本例使用WIDER FACE人脸数据,训练一个高精度的人脸检测模型。

WIDER

数据集:WIDER Face

建立时间:2015-11-19

WIDER FACE 数据集是一个人脸检测基准(benchmark)数据集,图片选取自 WIDER(Web Image Dataset for Event Recognition) 数据集。图片数 32,203 张,人脸数 393,703 个,在大小(scale)、位置(pose)、遮挡(occlusion)等不同形式中,人脸是高度变换的。WIDER FACE 数据集是基于61个事件类别,每个事件类别,随机选取训练40%、验证10%、测试50%。训练和测试含有边框(bounding box)真值(ground truth),而验证不含。

数据集在官网可以公开下载,其中在Face annotations 中,wider_face_train_bbx_gt.txt是边框真值,数据格式如下:

0--Parade/0_Parade_marchingband_1_849.jpg
1
449 330 122 149 0 0 0 0 0 0 

数据说明:

  • 第1行:图片的位置和名称;
  • 第2行:边框的数量;
  • 第3~n行:每个人脸的边框和属性:
    • 其中1~4位是x1, y1, w, h
    • blur:模糊,0清晰、1一般、2严重;
    • expression:表情,0正常、1夸张;
    • illumination:曝光,0正常、1极度;
    • occlusion:遮挡,0无、1部分、2大量;
    • pose:姿势,0正常,1非典型;

wider_face_val_bbx_gt.txt与此类似。

图片数据的清晰度一般,大小不一,尺寸为1024x,宽度相同。

数据转换

为了符合训练要求,需要转换wider数据集中的边框格式,为训练要求的边框格式。

即文件路径,边框xmin,ymin,xmax,ymax,label

data/WIDER_val/images/10--People_Marching/10_People_Marching_People_Marching_2_433.jpg 614,346,771,568,0 245,382,392,570,0 353,222,461,390,0 498,237,630,399,0

转换源码。遍历数据文件夹,逐行解析不同格式的数据,写入文件。注意:

  1. 物体框,Wider的数据格式是x,y,w,h,而训练的数据格式是xmin,ymin,xmax,ymax;
  2. 只检测人脸一个类别,则类别索引均为0;

具体参考工程的wider_annotation.py脚本。

def generate_train_file(bbx_file, data_folder, out_file):paths_list, names_list = traverse_dir_files(data_folder)name_dict = dict()for path, name in zip(paths_list, names_list):name_dict[name] = pathdata_lines = read_file(bbx_file)sub_count = 0item_count = 0out_list = []for data_line in data_lines:item_count += 1if item_count % 1000 == 0:print('item_count: ' + str(item_count))data_line = data_line.strip()l_names = data_line.split('/')if len(l_names) == 2:if out_list:out_line = ' '.join(out_list)write_line(out_file, out_line)out_list = []name = l_names[-1]img_path = name_dict[name]sub_count = 1out_list.append(img_path)continueif sub_count == 1:sub_count += 1continueif sub_count >= 2:n_list = data_line.split(' ')x_min = n_list[0]y_min = n_list[1]x_max = str(int(n_list[0]) + int(n_list[2]))y_max = str(int(n_list[1]) + int(n_list[3]))p_list = ','.join([x_min, y_min, x_max, y_max, '0'])  # 标签全部是0,人脸out_list.append(p_list)continue

类别文件wider_classes.txt仅有一行,就是face。

训练

YOLO v3的训练过程,参数:标注数据、类别、存储路径、预训练模型、anchors、输入尺寸。

annotation_path = 'dataset/WIDER_train.txt'  # 数据
classes_path = 'configs/wider_classes.txt'  # 类别log_dir = 'logs/002/'  # 日志文件夹pretrained_path = 'model_data/yolo_weights.h5'  # 预训练模型
anchors_path = 'configs/yolo_anchors.txt'  # anchorsclass_names = get_classes(classes_path)  # 类别列表
num_classes = len(class_names)  # 类别数
anchors = get_anchors(anchors_path)  # anchors列表input_shape = (416, 416)  # 32的倍数,输入图像

创建模型:

  1. input_shape是输入图像的尺寸;
  2. anchors是检测框的尺寸;
  3. num_classes是类别数;
  4. freeze_body,模式1是全部冻结,模式2是训练最后三层;
  5. weights_path,预训练权重的路径;
  6. logging是TensorBoard的回调,checkpoint是存储权重的回调;
model = create_model(input_shape, anchors, num_classes,freeze_body=2,weights_path=pretrained_path)  # make sure you know what you freezelogging = TensorBoard(log_dir=log_dir)
checkpoint = ModelCheckpoint(log_dir + 'ep{epoch:03d}-loss{loss:.3f}-val_loss{val_loss:.3f}.h5',monitor='val_loss', save_weights_only=True,save_best_only=True, period=3)  # 只存储weights,

训练数据与验证数据:

val_split = 0.1  # 训练和验证的比例
with open(annotation_path) as f:lines = f.readlines()
np.random.seed(10101)
np.random.shuffle(lines)
np.random.seed(None)
num_val = int(len(lines) * val_split)  # 验证集数量
num_train = len(lines) - num_val  # 训练集数量

模型编译与fit数据:

  1. 损失函数只使用y_pred预测结果;
  2. 批次数是32个;
  3. 训练数据与验证数据都来源于data_generator_wrapper
  4. 训练过程中,通过checkpoint存储权重,最终再存储最终的权重;
model.compile(optimizer=Adam(lr=1e-3), loss={# use custom yolo_loss Lambda layer.'yolo_loss': lambda y_true, y_pred: y_pred})  # 损失函数batch_size = 32  # batch尺寸
print('Train on {} samples, val on {} samples, with batch size {}.'.format(num_train, num_val, batch_size))
model.fit_generator(data_generator_wrapper(lines[:num_train], batch_size, input_shape, anchors, num_classes),steps_per_epoch=max(1, num_train // batch_size),validation_data=data_generator_wrapper(lines[num_train:], batch_size, input_shape, anchors, num_classes),validation_steps=max(1, num_val // batch_size),epochs=200,initial_epoch=0,callbacks=[logging, checkpoint])
model.save_weights(log_dir + 'trained_weights_stage_1.h5')  # 存储最终的参数,再训练过程中,通过回调存储

模型创建:

  1. 创建YOLO v3的模型,yolo_body,参数图像输入、每个尺度的anchor数、类别数;
  2. 加载预训练权重,冻结参数,保留最后三层;
  3. 自定义Lambda,模型的损失函数层;
  4. 输入是YOLO模型输入和真值,输出是损失函数;
def create_model(input_shape, anchors, num_classes, load_pretrained=True, freeze_body=2,weights_path='model_data/yolo_weights.h5'):K.clear_session()  # 清除sessionimage_input = Input(shape=(None, None, 3))  # 图片输入格式h, w = input_shape  # 尺寸num_anchors = len(anchors)  # anchor数量# YOLO的三种尺度,每个尺度的anchor数,类别数+边框4个+置信度1y_true = [Input(shape=(h // {0: 32, 1: 16, 2: 8}[l], w // {0: 32, 1: 16, 2: 8}[l],num_anchors // 3, num_classes + 5)) for l in range(3)]model_body = yolo_body(image_input, num_anchors // 3, num_classes)  # modelprint('Create YOLOv3 model with {} anchors and {} classes.'.format(num_anchors, num_classes))if load_pretrained:  # 加载预训练模型model_body.load_weights(weights_path, by_name=True, skip_mismatch=True)  # 加载参数,跳过错误print('Load weights {}.'.format(weights_path))if freeze_body in [1, 2]:# Freeze darknet53 body or freeze all but 3 output layers.num = (185, len(model_body.layers) - 3)[freeze_body - 1]for i in range(num):model_body.layers[i].trainable = False  # 将其他层的训练关闭print('Freeze the first {} layers of total {} layers.'.format(num, len(model_body.layers)))model_loss = Lambda(yolo_loss,output_shape=(1,), name='yolo_loss',arguments={'anchors': anchors,'num_classes': num_classes,'ignore_thresh': 0.5})(model_body.output + y_true)  # 后面是输入,前面是输出model = Model([model_body.input] + y_true, model_loss)  # 模型,inputs和outputsreturn model

数据生成器:

  1. data_generator_wrapper用于条件检查;
  2. 将输入的标注行随机;
  3. 根据批次数,将图像放入image_data中,将边框和参数放入真值y_true中;
  4. 输出图像和边框,还有批次数的填充,用于存储置信度。
def data_generator(annotation_lines, batch_size, input_shape, anchors, num_classes):'''data generator for fit_generator'''n = len(annotation_lines)i = 0while True:image_data = []box_data = []for b in range(batch_size):if i == 0:np.random.shuffle(annotation_lines)image, box = get_random_data(annotation_lines[i], input_shape, random=True)  # 获取图片和盒子image_data.append(image)  # 添加图片box_data.append(box)  # 添加盒子i = (i + 1) % nimage_data = np.array(image_data)box_data = np.array(box_data)y_true = preprocess_true_boxes(box_data, input_shape, anchors, num_classes)  # 真值yield [image_data] + y_true, np.zeros(batch_size)def data_generator_wrapper(annotation_lines, batch_size, input_shape, anchors, num_classes):"""用于条件检查"""n = len(annotation_lines)  # 标注图片的行数if n == 0 or batch_size <= 0: return Nonereturn data_generator(annotation_lines, batch_size, input_shape, anchors, num_classes)

具体源码参考yolo3_train.py,即可生成人脸检测模型。


验证

yolo3_predict.py中,替换已训练好的模型参数:

模型:ep108-loss44.018-val_loss43.270.h5

检测图片:

其他:增加更多的数据集,与具体的需求图片结合,都可以提升检测效果。

OK, that’s all! Enjoy it!

目标检测 YOLO v3 训练 人脸检测模型相关推荐

  1. 对象检测目标小用什么模型好_自动驾驶目标检测- YOLO v3 深入解析

    从2016年 Joseph Redmon 发布第一代YOLO开始,YOLO已经更新四代了,凭借着在一个网络模型中完成对图像中所有对象边界框和类别预测的独特创新,成为现今使用最广泛也是最快的对象检测算法 ...

  2. yolo v3做行人检测+alexnet做上衣颜色识别

    参考链接: 1)alexnet做上衣颜色识别 2)keras训练自己的数据集 前言: 本项目是基于yolo v3已经训练好的coco数据集的模型进行行人检测的,然后将检测出来的结果传入到alexnet ...

  3. 基于YOLO的密集人脸检测(课程设计)

    基于YOLO的密集人脸检测(课程设计) 数据集+代码下载地址:下载地址 实现的功能 添加关键点检测分支,使用wing loss Installation Clone and install 使用src ...

  4. 基于wxpython+MySQL--实现人脸检测识别的宿舍人脸检测系统

    基于wxpython+MySQL--实现人脸检测识别的宿舍人脸检测系统 一.功能需求 二.数据库建立 2.1 初始化数据库 2.2 压缩/解压数据流 2.3 输入数据 三.宿舍管理 3.1 新建录入 ...

  5. 人脸检测和识别:人脸检测(Python)

    在静态图像或者视频中检测人脸的操作非常相似.视频人脸检测只是从摄像头读出每帧图像,然后采用静态图像中的人脸检测方法进行检测.至于视频人脸检测涉及到的其他处理过程,例如轨迹跟踪,将在以后完善.本文只介绍 ...

  6. 目标检测 YOLO v3 验证 COCO 模型

    YOLO,是You Only Look Once的缩写,一种基于深度卷积神经网络的物体检测算法,YOLO v3是YOLO的第3个版本,检测算法更快更准. 本文源码:https://github.com ...

  7. yolov3网络结构图_目标检测——YOLO V3简介及代码注释(附github代码——已跑通)...

    GitHub: liuyuemaicha/PyTorch-YOLOv3​github.com 注:该代码fork自eriklindernoren/PyTorch-YOLOv3,该代码相比master分 ...

  8. 百度aistudio上使用yolov4训练人脸检测模型

    前几天在百度的aistudio上使用yolov4训练了一下人脸检测的模型,今天看见有人留言希望我写一篇在aistudio上如何使用yolov4的教程,纠结了一下,因为这玩意的操作流程其实在我那篇yol ...

  9. WiderFace数据集用于训练人脸检测模型

    下载链接: http://mmlab.ie.cuhk.edu.hk/projects/WIDERFace/ 该数据集可用于进行人脸检测模型的训练 如果做训练,可以点击网页中的 (国内还是百度吧,会快一 ...

最新文章

  1. 安卓-控制控件的宽度占屏幕的一半且水平居中显示
  2. B/S结构的一机多屏的技术论证及可行性讨论
  3. python能和wincc一起用_python通过ado连接wincc数据库
  4. 风控建模 python 知乎_风控建模基本要求及面试问题小结
  5. ​坚持写代码,这是晋级大师的唯一方法。
  6. 9针串口定义测试方法_一些定义–测试技术9
  7. MQ在计算机组成,[转载]计算机组成框图-计算机运行流程(例子)
  8. 为了异常安全(swap,share_ptr)——Effecive C++
  9. 北航计算机专业怎么样,选计算机专业,北航、南大、中科大3校如何选择?选北航更有优势...
  10. swoole怎么做mysql连接池_Swoole4创建Mysql连接池
  11. SpringAOP原理解析
  12. STL源码剖析(侯杰)——读书笔记
  13. 什么是准静态平坦瑞利衰落信道?
  14. anbmcmdn 上下文无关文法_词法分析 | 上下文无关文法和推导
  15. 十万个seo_2020年将抛弃10个SEO神话
  16. 一位尚德机构网课老师的一天:从容、热爱与“一键全连”
  17. 失业登记对养老保险是否有影响
  18. C#语言跟WPF学习视频
  19. echarts K线图
  20. 纵断面图标注栏数据复制

热门文章

  1. 传一家离岸公司将以近亿美元收购酷我音乐
  2. 指代消解_论文理解《Improving Coreference Resolution by Learning Entity-Level Distributed Representations》
  3. 低压 伺服低压伺服方案全套,包含TI dsp和FPGA 源码和 原理图
  4. 苹果手机壳_苹果官方最贵手机壳,能买一部安卓机!
  5. 市场增速超20%,国产操作系统“浴火重生” | 解读操作系统的 2022
  6. 【基础dp】HRBUST 1861 猥琐宅男——koko
  7. 记录一次计算两个日期间的工作日天数,排除节假日、周末等
  8. BTS-LovelyFonts
  9. YOLOv5改进系列(8)——添加SOCA注意力机制
  10. 南邮ctf答案php是世界,南邮ctf训练平台逆向试题wp