随着短视频vlog时代的到来,自动驾驶技术、人脸识别门禁系统、智慧视频监控、AI机器人等贴近人们日常生活的视频信息量的暴增,视频目标检测的研究具有无比的现实研究意义与未来行业潜力。视频是由一系列具有时间连续性和内容相关性的图像组成,所以关于视频目标检测的研究自兴起以来就是在经典的图像目标检测算法的基础上进行改进与创新的。软硬件设备的迭代更新,使得视频的流畅度也越来越高,几秒钟的视频画面便可包含高达两三百甚至上千张图像,而视频比单纯的图像包含更多的时间和空间信息,若直接用图像目标检测的方法对视频文件的内容逐帧检测,不仅忽视了视频的时空信息还会拖慢检测速度,难以达到实时的需求。如何利用视频提供的时空上下文信息提升检测的准确率、速度等性能,成为了各国研究人员的工作重点。目标检测 (Object Detection) 是计算机视觉和图像处理的一项分支技术,其主要任务是在一幅数字图像中正确识别出目标物体的位置并判断类别。目标检测算法需要框选出图片中的物体,并判断出框选出的物体是什么以及它是否可信。

得益于近年来 GPU 加速技术和深度学习技术的发展,使得如今基于深度学习的人脸检测能够达到高精度和较好的实时性,有效的改善传统方法的效率低下问题,能够使该项技术广泛应用于医学军事领域等。

YOLOv5是一种单阶段目标检测算法,该算法在YOLOv4的基础上添加了一些新的改进思路,使其速度与精度都得到了较大的性能提升。YOLO 是一种卷积神经网络,相较于传统神经网络,卷积神经网络能够更好的提取特征,同时还能减少模型参数。

YOLOv5并不是一个单独的模型,而是一个模型家族,包括了YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x、YOLOv5x+TTA,这点有点儿像EfficientDet。由于没有找到V5的论文,只能从代码去学习它。总体上它和YOLOV4差不多,可以认为是YOLOV4的加强版。

对于yolov4而言yolov5的主要的改进思路如下所示:

输入端:在模型训练阶段,提出了一些改进思路,主要包括Mosaic(马赛克)数据增强、自适应锚框计算、自适应图片缩放;

基准网络:融合其它检测算法中的一些新思路,主要包括:Focus结构与CSP结构;

Neck网络:目标检测网络在BackBone与最后的Head输出层之间往往会插入一些层,Yolov5中添加了FPN+PAN结构;

Head输出层:输出层的锚框机制与YOLOv4相同,主要改进的是训练时的损失函数GIOU_Loss,以及预测框筛选的DIOU_nms。

   以下篇幅主要描述了我自己手动标注数据集并将其训练的过程。

一. 环境搭建(不能含有中文路径)

开始之前

克隆存储库和安装要求.txt在 Python>=3.7.0 环境中,包括 PyTorch>=1.7。模型和数据集从最新的 YOLOv5 版本自动下载。

git clone https://github.com/ultralytics/yolov5  # clone
cd yolov5
pip install -r requirements.txt  # install

创建自定义模型来检测对象是一个迭代过程,包括收集和组织图像、标记感兴趣的对象、训练模型、将其部署到野外以进行预测,然后使用该部署的模型收集边缘情况的示例以进行重复和改进

YOLOv5 模型必须在标记数据上进行训练,以便学习该数据中对象的类别。在开始训练之前,有两个选项可用于创建数据集:

使用Roboflow以YOLO格式自动标记,准备和托管您的自定义数据

或手动准备数据集

​ 本次例程用到的环境:

安装yolov5配置环境,我用的是anaconda和pycharm进行yolov5的环境搭建

pytorch: 1.8.0   python: 3.8.12

tips:如若使用GPU,cuda version >=10.1

首先要下载并安装yolov5:

yolov5官方要求 Python>=3.6 and PyTorch>=1.7

yolov5源码下载:https://github.com/ultralytics/yolov5

下载后,进入pytorch环境进入yolov5文件夹,使用换源的方法安装依赖。

如若前面安装时没有换源,这里强烈建议你使用换源的方法再进行安装

安装过的模块不会在安装,以防缺少模块,影响后续程序运行以及模型训练。

使用清华镜像源:

pip install -r requirements.txt -i  https://pypi.tuna.tsinghua.edu.cn/simple

本文数据集部分内容参考一位大佬的文章:(62条消息) Yolov5训练自己的数据集(详细完整版)_缔宇的博客-CSDN博客_yolov5训练自己的数据集https://blog.csdn.net/qq_45945548/article/details/121701492

环境搭建可以参考 :(62条消息) 史上最详细yolov5环境配置搭建+配置所需文件_想到好名再改的博客-CSDN博客_yolov5环境配置https://blog.csdn.net/qq_44697805/article/details/107702939?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522164757209816782246424327%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fall.%2522%257D&request_id=164757209816782246424327&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~first_rank_ecpm_v1~rank_v31_ecpm-1-107702939.142%5Ev2%5Epc_search_result_cache,143%5Ev4%5Econtrol&utm_term=yolov5%E7%8E%AF%E5%A2%83&spm=1018.2226.3001.4187

二、环境配置所需资源

我选用的是pycharm+anaconda搭建的环境,使用Pip命令安装所需功能包,第一次配置时,我的环境如下:python3.8.12+cuda10.2+cudnn-10.2-windows11-x64-v22000.556Windows 功能体验包 1000.22000.556.0+pytorch1.8.0+cpu,后面因为cpu跑模型训练太慢了,所以我换成了torch 1.9.0+cu111 CUDA:0 (GeForce GTX 1650, 4096.0MB)也就是GPU独立显卡来跑yolov5。

最开始的训练环境CPU,发现太慢了,于是乎我换了GPU

安装环境:

git clone https://github.com/ultralytics/yolov5 # 下载 yolov5 项目

python3 -c "from yolov5.utils.google_utils import gdrive_download; gdrive_download('1n_oKgR81BJtqk75b00eAjdv03qVCQn2f','coco128.zip')" # 下载官方数据集

cd yolov5 #进入yolov5 项目文件

pip install -U -r requirements.txt #安装需求

如遇pip install -U -r requirements.txt 这一步报错,则依次手动执行pip install

pip install numpy==1.17

pip install python==3.8

###下面所有的需要全部装一遍,可以参照 yolov5下的 requirements.txt 文件

Python>=3.7 PyTorch>=1.5 Cython numpy==1.17 opencv-python torch>=1.5 matplotlib

Pillow tensorboard PyYAML>=5.3 torchvision scipy tqdm

git+https://github.com/cocodataset/cocoapi.git#subdirectory=PythonAPI

开始进行训练模型的准备

1.在 yolov5目录下 新建文件夹 VOCData

2.在VOCData下新建两个文件夹 Annotations 以及 images

其作用为:

images:用于存放要标注的图片(jpg格式)

Annotations :用于存放标注图片后产生的内容(这里采用XML格式)

 三. 使用labelImg标注图片

1.安装labellmg

下载labelImg:https://github.com/tzutalin/labelImg

下载后存放目录到yolov5同级下面

进入开始页面打开anaconda prompt(anaconda3) 

cd d:cd D:\Testcode\labelImg 

执行命令前,建议更新一下conda
conda update -n base -c defaults conda

然后执行以下命令

conda install pyqt=5
conda install -c anaconda lxml
pyrcc5 -o libs/resources.py resources.qrc

2. 使用labellmg

开始使用labellmg进行图像的标注

运行软件前可以更改下要标注的类别。

这里建议先更改类别因为进入软件后再添加的话,以后每次进入软件都要添加,会比较繁复

打开labellmg(要进入labellmg文件夹运行,这里使用pycharm打开labellmg文件夹转到目录下再运行)

python labelImg.py   #运行软件

打开labelimg的自动保存模式(auto save mode)

保存位置为D:\Testcode\yolov5-5.0\VOCData\Annotations
要标注的图片文件夹D:\Testcode\yolov5-5.0\VOCData\images

格式默认为XML格式即可,可以更改成yolo,这里就使用默认的XML格式

点击左方边栏或者屏幕右键选择 Create RectBox 即可进行标注。

尽可能的完全拟合标注物体,建议放大标注

其它看个人标准。

四. 划分数据集以及配置文件修改
运行代码方式

第一种:使用pycharm、vscode、python自带的IDLE。如果出现缺少模块的情况(no module named),你可以安装模块,也可以使用后一种方法。

第二种:进入pytorch环境,进入代码所在目录,使用命令行形式运行(python + 程序名)

1. 划分训练集、验证集、测试集
在VOCData目录下创建程序 split_train_val.py 并运行,程序如下:

# coding:utf-8import os
import random
import argparseparser = argparse.ArgumentParser()
#xml文件的地址,根据自己的数据进行修改 xml一般存放在Annotations下
parser.add_argument('--xml_path', default='Annotations', type=str, help='input xml label path')
#数据集的划分,地址选择自己数据下的ImageSets/Main
parser.add_argument('--txt_path', default='ImageSets/Main', type=str, help='output txt label path')
opt = parser.parse_args()trainval_percent = 1.0  # 训练集和验证集所占比例。 这里没有划分测试集
train_percent = 0.9     # 训练集所占比例,可自己进行调整
xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)
if not os.path.exists(txtsavepath):os.makedirs(txtsavepath)num = len(total_xml)
list_index = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list_index, tv)
train = random.sample(trainval, tr)file_trainval = open(txtsavepath + '/trainval.txt', 'w')
file_test = open(txtsavepath + '/test.txt', 'w')
file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')for i in list_index:name = total_xml[i][:-4] + '\n'if i in trainval:file_trainval.write(name)if i in train:file_train.write(name)else:file_val.write(name)else:file_test.write(name)file_trainval.close()
file_train.close()
file_val.close()
file_test.close()

运行完毕后 会生成 ImagesSets\Main 文件夹,且在其下生成 测试集、训练集、验证集,存放图片的名字(无后缀.jpg)

由于没有分配测试集,所以测试集为空。

若要分配,更改第 14、15 行代码,更改所在比例即可。

2. XML格式转yolo_txt格式
在VOCData目录下创建程序 text_to_yolo.py 并运行

​​​​​​​

程序如下:

注:需要将第 7 行改成要所标注的类别 以及 代码中各文件绝对路径

路径需为:d:\\images 或者 d:/images,双右斜线或者单左斜线

# -*- coding: utf-8 -*-
import xml.etree.ElementTree as ET
import os
from os import getcwdsets = ['train', 'val', 'test']
classes = ["victory"]   # 改成自己的类别
abs_path = os.getcwd()
print(abs_path)def convert(size, box):dw = 1. / (size[0])dh = 1. / (size[1])x = (box[0] + box[1]) / 2.0 - 1y = (box[2] + box[3]) / 2.0 - 1w = box[1] - box[0]h = box[3] - box[2]x = x * dww = w * dwy = y * dhh = h * dhreturn x, y, w, hdef convert_annotation(image_id):in_file = open('D:/Yolov5/yolov5/VOCData/Annotations/%s.xml' % (image_id), encoding='UTF-8')out_file = open('D:/Yolov5/yolov5/VOCData/labels/%s.txt' % (image_id), 'w')tree = ET.parse(in_file)root = tree.getroot()size = root.find('size')w = int(size.find('width').text)h = int(size.find('height').text)for obj in root.iter('object'):difficult = obj.find('difficult').text#difficult = obj.find('Difficult').textcls = obj.find('name').textif cls not in classes or int(difficult) == 1:continuecls_id = classes.index(cls)xmlbox = obj.find('bndbox')b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),float(xmlbox.find('ymax').text))b1, b2, b3, b4 = b# 标注越界修正if b2 > w:b2 = wif b4 > h:b4 = hb = (b1, b2, b3, b4)bb = convert((w, h), b)out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')wd = getcwd()
for image_set in sets:if not os.path.exists('D:/Yolov5/yolov5/VOCData/labels/'):os.makedirs('D:/Yolov5/yolov5/VOCData/labels/')image_ids = open('D:/Yolov5/yolov5/VOCData/ImageSets/Main/%s.txt' % (image_set)).read().strip().split()if not os.path.exists('D:/Yolov5/yolov5/VOCData/dataSet_path/'):os.makedirs('D:/Yolov5/yolov5/VOCData/dataSet_path/')list_file = open('dataSet_path/%s.txt' % (image_set), 'w')for image_id in image_ids:list_file.write('D:/Yolov5/yolov5/VOCData/images/%s.jpg\n' % (image_id))convert_annotation(image_id)list_file.close()

运行后会生成如下 labels 文件夹和 dataSet_path 文件夹。

其中 labels 中为不同图像的标注文件。每个图像对应一个txt文件,文件每一行为一个目标的信息,包括class, x_center, y_center, width, height格式,这种即为 yolo_txt格式

dataSet_path文件夹包含三个数据集的txt文件,train.txt等txt文件为划分后图像所在位置的绝对路径,如train.txt就含有所有训练集图像的绝对路径。

3. 配置文件

在 yolov5 目录下的 data 文件夹下 新建一个 myvoc.yaml文件(可以自定义命名),用记事本打开。

内容是:训练集以及验证集(train.txt和val.txt)绝对路径(通过 text_to_yolo.py 生成),然后是目标的类别数目和类别名称。

我的是这样设置的

train: D:\Testcode\yolov5-5.0\VOCData\dataSet_path\train.txt
val: D:\Testcode\yolov5-5.0\VOCData\dataSet_path\val.txt# number of classes
nc: 1# class names
names: ["victory"]

tips:冒号后面需要加空格

3. 聚类获得先验框

3.1 生成anchors文件
在VOCData目录下创建程序两个程序 kmeans.py 以及 clauculate_anchors.py

不需要运行 kmeans.py,运行 clauculate_anchors.py 即可。

kmeans.py 程序如下:这不需要运行,也不需要更改,报错则查看第十三行内容。

import numpy as npdef iou(box, clusters):"""Calculates the Intersection over Union (IoU) between a box and k clusters.:param box: tuple or array, shifted to the origin (i. e. width and height):param clusters: numpy array of shape (k, 2) where k is the number of clusters:return: numpy array of shape (k, 0) where k is the number of clusters"""x = np.minimum(clusters[:, 0], box[0])y = np.minimum(clusters[:, 1], box[1])if np.count_nonzero(x == 0) > 0 or np.count_nonzero(y == 0) > 0:raise ValueError("Box has no area")    # 如果报这个错,可以把这行改成pass即可intersection = x * ybox_area = box[0] * box[1]cluster_area = clusters[:, 0] * clusters[:, 1]iou_ = intersection / (box_area + cluster_area - intersection)return iou_def avg_iou(boxes, clusters):"""Calculates the average Intersection over Union (IoU) between a numpy array of boxes and k clusters.:param boxes: numpy array of shape (r, 2), where r is the number of rows:param clusters: numpy array of shape (k, 2) where k is the number of clusters:return: average IoU as a single float"""return np.mean([np.max(iou(boxes[i], clusters)) for i in range(boxes.shape[0])])def translate_boxes(boxes):"""Translates all the boxes to the origin.:param boxes: numpy array of shape (r, 4):return: numpy array of shape (r, 2)"""new_boxes = boxes.copy()for row in range(new_boxes.shape[0]):new_boxes[row][2] = np.abs(new_boxes[row][2] - new_boxes[row][0])new_boxes[row][3] = np.abs(new_boxes[row][3] - new_boxes[row][1])return np.delete(new_boxes, [0, 1], axis=1)def kmeans(boxes, k, dist=np.median):"""Calculates k-means clustering with the Intersection over Union (IoU) metric.:param boxes: numpy array of shape (r, 2), where r is the number of rows:param k: number of clusters:param dist: distance function:return: numpy array of shape (k, 2)"""rows = boxes.shape[0]distances = np.empty((rows, k))last_clusters = np.zeros((rows,))np.random.seed()# the Forgy method will fail if the whole array contains the same rowsclusters = boxes[np.random.choice(rows, k, replace=False)]while True:for row in range(rows):distances[row] = 1 - iou(boxes[row], clusters)nearest_clusters = np.argmin(distances, axis=1)if (last_clusters == nearest_clusters).all():breakfor cluster in range(k):clusters[cluster] = dist(boxes[nearest_clusters == cluster], axis=0)last_clusters = nearest_clustersreturn clustersif __name__ == '__main__':a = np.array([[1, 2, 3, 4], [5, 7, 6, 8]])print(translate_boxes(a))

运行:clauculate_anchors.py

会调用 kmeans.py 聚类生成新anchors的文件

程序如下:

需要更改第 9 、13行文件路径 以及 第 16 行标注类别名称

FILE_ROOT = "D:\Testcode\yolov5-5.0\VOCData/"     # 根路径
ANNOTATION_ROOT = "Annotations"   # 数据集标签文件夹路径
ANNOTATION_PATH = FILE_ROOT + ANNOTATION_ROOTANCHORS_TXT_PATH = "D:\Testcode\yolov5-5.0\VOCData/anchors.txt"   #anchors文件保存位置CLUSTERS = 9
CLASS_NAMES = ['victory']   #类别名称
# -*- coding: utf-8 -*-
# 根据标签文件求先验框import os
import numpy as np
import xml.etree.cElementTree as et
from kmeans import kmeans, avg_iouFILE_ROOT = "D:/yolov5-5/VOCData/"     # 根路径
ANNOTATION_ROOT = "Annotations"   # 数据集标签文件夹路径
ANNOTATION_PATH = FILE_ROOT + ANNOTATION_ROOTANCHORS_TXT_PATH = "D:/yolov5-5/VOCData/anchors.txt"   #anchors文件保存位置
CLUSTERS = 9
CLASS_NAMES = ['victory']   #类别名称def load_data(anno_dir, class_names):xml_names = os.listdir(anno_dir)boxes = []for xml_name in xml_names:xml_pth = os.path.join(anno_dir, xml_name)tree = et.parse(xml_pth)width = float(tree.findtext("./size/width"))height = float(tree.findtext("./size/height"))for obj in tree.findall("./object"):cls_name = obj.findtext("name")if cls_name in class_names:xmin = float(obj.findtext("bndbox/xmin")) / widthymin = float(obj.findtext("bndbox/ymin")) / heightxmax = float(obj.findtext("bndbox/xmax")) / widthymax = float(obj.findtext("bndbox/ymax")) / heightbox = [xmax - xmin, ymax - ymin]boxes.append(box)else:continuereturn np.array(boxes)if __name__ == '__main__':anchors_txt = open(ANCHORS_TXT_PATH, "w")train_boxes = load_data(ANNOTATION_PATH, CLASS_NAMES)count = 1best_accuracy = 0best_anchors = []best_ratios = []for i in range(10):      ##### 可以修改,不要太大,否则时间很长anchors_tmp = []clusters = kmeans(train_boxes, k=CLUSTERS)idx = clusters[:, 0].argsort()clusters = clusters[idx]# print(clusters)for j in range(CLUSTERS):anchor = [round(clusters[j][0] * 640, 2), round(clusters[j][1] * 640, 2)]anchors_tmp.append(anchor)print(f"Anchors:{anchor}")temp_accuracy = avg_iou(train_boxes, clusters) * 100print("Train_Accuracy:{:.2f}%".format(temp_accuracy))ratios = np.around(clusters[:, 0] / clusters[:, 1], decimals=2).tolist()ratios.sort()print("Ratios:{}".format(ratios))print(20 * "*" + " {} ".format(count) + 20 * "*")count += 1if temp_accuracy > best_accuracy:best_accuracy = temp_accuracybest_anchors = anchors_tmpbest_ratios = ratiosanchors_txt.write("Best Accuracy = " + str(round(best_accuracy, 2)) + '%' + "\r\n")anchors_txt.write("Best Anchors = " + str(best_anchors) + "\r\n")anchors_txt.write("Best Ratios = " + str(best_ratios))anchors_txt.close()

会生成anchors文件。如果生成文件为空,重新运行即可。

第二行 Best Anchors 后面需要用到。

3.2 修改模型配置文件

选择一个模型,在yolov5目录下的model文件夹下是模型的配置文件,有n、s、m、l、x版本,逐渐增大(随着架构的增大,训练时间也是逐渐增大)。

这里放一些官方数据:GitHub - ultralytics/yolov5

这里选用 yolov5m.yaml
使用记事本打开 yolov5m.yaml。


这里我们需要修改两个参数。
把 nc:后面改成自己的标注类别数
修改anchors,根据 anchors.txt 中的 Best Anchors 修改,需要取整(四舍五入、向上、向下都可以)。
保持yaml中的anchors格式不变,按顺序一对一即可,比如我这里的anchors.txt紫色部分对应

着yolov5m.yaml的紫色部分,anchors.txt蓝色部分对应着yolov5m.yaml的蓝色部分。

五. 模型训练
1. 开始训练

打开yolov5 目录下的 train.py 程序,一般有七个参数可以留意:weights:权重文件路径 cfg:存储模型结构的配置文件 data:存储训练、测试数据的文件 epochs:指的就是训练过程中整个数据集将被迭代多少次 batch-size:一次看完多少张图片才进行权重更新,梯度下降的mini-batch  img-size:输入图片宽高 device:cuda device, i.e. 0 or 0,1,2,3 or cpu选择使用GPU还是CPU(这里我选择使用device0即为GPU),

其它参数解释:rect:进行矩形训练、 resume:恢复最近保存的模型开始训练、 nosave:仅保存最终checkpoint、 notest:仅测试最后的epoch、evolve:进化超参数、  cache-images:缓存图像以加快训练速度、 adam:使用adam优化、 multi-scale:多尺度训练、 single-cls:单类别的训练集。

步骤11——训练命令如下:首先进入pytorch环境,进入yolov5文件夹,运行指令:python train.py --weights weights/yolov5s.pt  --cfg models/yolov5s.yaml  --data data/myvoc.yaml --epoch 233 --batch-size 8 --img 640   --device 0 ,其中device 0:意为使用GPU进行训练 epoch 200 :意为训练200次,batch-size 8:意为训练8张图片后进行权重更新 device cpu:意为使用CPU训练。

python train.py --weights weights/yolov5s.pt  --cfg models/yolov5s.yaml  --data data/myvoc.yaml --epoch 233 --batch-size 8 --img 640   --device 0

2. 训练过程

训练好的模型会被保存在 yolov5 目录下的 runs/train/weights/expxx下。

3. 训练时间

本次训练对象为标注的118张手势图片,分别使用GPU训练了233次,耗时约为1.7小时。

这里打开了我的电脑的增强模式,风扇疾速运转中————-呼呼吹

训练过程pycharm可视化

4. 相关问题

报错1:页面太小,无法完成操作——解决方案:由于虚拟内存不足,我设置了一下电脑的虚拟内存然后就可以了,或者降低线程 --workers (默认是8) ,调小 --batch-size,降低 --epoch。

报错2:训练过程中出现 cuda out of memory error ——解决方案:由于内存满了,减小batch-size ,同时降低 --epochs。然后降低线程 --workers (默认是8)同上一步。

报错3:运行detect.py时报错AttributeError: 'NoneType' object has no attribute 'find' ——解决方案;由于图片的指定路径出现错误或者路径是正确的,但是路径设置中的”\”无法被识别,需要”/”,如\data\images无法被正确识别,而data/images则可以被正确识别。

五. 训练可视化

由于我使用的是pycharm,在训练的时候终端可以可视化训练过程

六. 测试效果

这里刚刚训练出的最好的模型 best.pt 来测试,在yolov5目录下的runs/train/exp44/weights/best.pt(训练的人脸模型)和runs/train/exp62/weights/best.pt(训练的手势模型)如要进行图片或者视频数据流的识别在terminal输入python detect.py --weights runs/train/exp44/weights/best.pt --source ../data/images(或videos)/123.jpg(123.mp4)即可,如要进行实时摄像头的人脸或者手势识别,则需要修改detect.py第154行的代码为default=’0’

识别结果如下:在测试过程中我留意到由于自己标注的数据集数量比较少以及显卡性能有限的原因batchsize(单次输入神经网络图片的数量即训练x张图片后进行权重更新)不能设置为8以上的大数值,这会导致报错ERROR:cuda out of memory(显卡内存不足)

实时检测识别效果窗口

结果分析:本次识别中,进行图片和数据流的人脸识别和手势识别效果还行,但在进行实时识别的时候我发现,因为数据集样本数量不够多,少于推荐训练的1500张图片epochs(训练)次数不是特别多次,以及由于显卡内存不足导致batchsize的阈值设置的受限,在识别手势的过程中,比V形手势的时候置信度较高(高于0.85),其余手势也会被识别到,但是其置信度比较低。故下一步我将对yolov5的边框的准确度、标签平滑等方向——做出进一步的优化,以实现高准确率边框,高置信度的人脸识别和手势检测。

七、感谢以下文章提供的参考

(63条消息) 手把手教你使用Yolov5制作并训练自己的数据集_是七叔呀的博客-CSDN博客_yolov5自己制作数据集https://blog.csdn.net/m0_46378271/article/details/120872132?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522164758521116780264033398%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fall.%2522%257D&request_id=164758521116780264033398&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~first_rank_ecpm_v1~rank_v31_ecpm-1-120872132.142%5Ev2%5Epc_search_result_cache,143%5Ev4%5Econtrol&utm_term=%E3%80%90%E5%B0%8F%E7%99%BDCV%E3%80%91%E6%89%8B%E6%8A%8A%E6%89%8B%E6%95%99%E4%BD%A0%E7%94%A8YOLOv5%E8%AE%AD%E7%BB%83%E8%87%AA%E5%B7%B1%E7%9A%84%E6%95%B0%E6%8D%AE%E9%9B%86%EF%BC%88%E4%BB%8EWindows%E7%8E%AF%E5%A2%83%E9%85%8D%E7%BD%AE%E5%88%B0%E6%A8%A1%E5%9E%8B%E9%83%A8%E7%BD%B2%EF%BC%89+%28icode9.com%29&spm=1018.2226.3001.4187
YOLOv5超详细的入门级教程(训练篇)——训练自己的数据集 - 知乎 (zhihu.com)https://zhuanlan.zhihu.com/p/448525505训练自定义数据 ·ultralytics/yolov5 Wiki (github.com)https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data

初学入门YOLOv5手势识别之制作并训练自己的数据集相关推荐

  1. Caffe学习笔记3——制作并训练自己的数据集

    Caffe学习笔记3 本文为原创作品,未经本人同意,禁止转载,禁止用于商业用途!本人对博客使用拥有最终解释权 欢迎关注我的博客:http://blog.csdn.net/hit2015spring和h ...

  2. Yolov5自学笔记之一--从入门到入狱,功能强大不要乱用(实现yolov5的基本功能使用流程及训练自己的数据集)

    1.下载安装 前提是安装好Anaconda3和pytorch等一大堆AI学习相关环境 1.1.下载YOLO5源码 Yolov5 Github地址:https://github.com/ultralyt ...

  3. 手把手教你使用YOLOV5训练自己的数据集并用TensorRT加速

    点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 前言 本文主要介绍目标检测YOLOV5算法来训练自己的数据集,并且使用TensorRT来对训练好的模型 ...

  4. java页面要素_Web前端入门技术之网页制作三要素

    原标题:Web前端入门技术之网页制作三要素 Web前端技术开发是由网页制作演变而来的,主要由HTML.CSS.Java三大要素组成.专业的Web前端开发入门常识也必定会包含这些内容,今日千锋教师就给我 ...

  5. yolov5训练自己的数据集(一文搞定训练)

    目录 1 yolov5 1.1 环境配置 1.2 测试代码 2 数据集制作 2.1 官网数据集结构 2.2 训练数据集制作 3 开始训练 4 测试效果 5 补充训练过程的可视化 1 yolov5 下载 ...

  6. 适用于openvino 2020.2的yolov5的docker制作

    docker版本:20.0 系统环境:ubuntu16.04 目标openvino版本:2020.2 这里主要提供yolov5的docker制作过程,在该docker中,训练得到的.pt模型将适用于o ...

  7. Yolov5训练自己的数据集+TensorRT加速+Qt部署

    本人由于项目要求,需要利用Yolov5网络训练自己的目标检测与分类模型,并利用TensorRT加速将其部署到Qt界面上.目前已经实现了整个流程,写下这篇博客供需要的各位参考.(本文描述的重点主要是在后 ...

  8. YOLOv5训练自己的数据集实现视频的识别

    写在前面 我本来是使用这个模型进行手写签名的定位,但是因为比赛的主办方原因,数据不允许公开,所以我使用动物世界的一段开头视屏来制作我的数据集.这整个模型跑通的过程中,我参考了很多不错的博客,写这篇博客 ...

  9. yolov5训练自己的数据集,OpenCV DNN推理

    学更好的别人, 做更好的自己. --<微卡智享> 本文长度为4238字,预计阅读9分钟 前言 上一篇<OpenCV--自学笔记>搭建好了yolov5的环境,作为目标检测在应用中 ...

最新文章

  1. ReduceTask工作机制
  2. TCP/IP详解--第十一章
  3. MySQL的几个概念:主键,外键,索引,唯一索引
  4. Qt creator 编译错误 :cannot find file .pro qt
  5. Spring系列之AOP分析之为目标类挑选合适的Advisor(五)
  6. cad打印字体颜色很淡_收藏|50个CAD技巧,常画电路图的你一定得知道
  7. html5 将id的值用于top_web前端分享HTML5常见面试题集锦四
  8. java在线预览txt、word、ppt、execel,pdf代码
  9. .NET应用如何优雅的实现功能定时开关
  10. Ocelot(五)- 流量限制、服务质量
  11. 【转】Linux下c++调用自己编写的matlab函数:通过mcc动态链接库.so实现
  12. 文本相似度-相似度度量
  13. 七步从Angular.JS菜鸟到专家(3):数据绑定和AJAX
  14. C语言-freopen函数输入简单使用举例
  15. 云图说|华为HiLens云上管理平台 花样管理多种端侧设备
  16. linux 路由表(转)
  17. java和jave_Jave VS C++谁更胜一筹?
  18. 数组转为集合的方法解析
  19. 纹理(讲得比较详细的文章)
  20. 曹金明:Zynga大败局--数据控是如何把游戏做败的

热门文章

  1. 当前线程运行完毕,再运行后续逻辑
  2. java基本类型val_Java的基本数据类型
  3. PL/SQL连接时-Error while trying to retrieve text for error ORA-12154
  4. Github上利用win10使用TensorFlow(GPU)上如何去训练一个目标多分类检测的例子
  5. 不懂年轻人,还怎么带团队
  6. 经验分享:计算机专业求职面试,这 5 句自我介绍模板记好了!
  7. 2017云栖大会大咖演讲PPT+视频官方资料合集来啦!
  8. 营销之父科特勒万字演讲实录:营销的未来(含PPT和视频回放)
  9. 地理生物结业考_今年我初二,明天我地理生物结业考,但是我现在啥都不会,我应该怎么办?...
  10. 用python筛选英文txt中的单词,生僻单词