此文章参考了https://blog.csdn.net/zzZ_CMing/article/details/81131101  在此表示感谢,如果有侵权的地方可联系本人删除

训练手表模型步骤

未经允许禁止转载

  • 制作数据集
  1. 在项目下面新建文件夹VOC2007,在此文件夹下新建3个文件夹,如下图

JPEGImages:用于存放训练、测试的图片(图片格式最好为.jpg)

Annotations:用于存放.xml格式的文件,也就是图片对应的标签,每个.xml文件都对应于JPEGImages文件夹的一张图片

ImageSets:内含Main文件夹,在…/ImageSets/Main文件夹下包含test.txt、train.txt、val.txt、trainval.txt四个文件,生成的方式对此有详细说明

2、制作自己的数据集

第一步:下载图片,存入JPEGImages文件夹中,命名为“00xxxx.jpg”

第二步:使用LabelImg工具给图片打标签

第4个小步骤保存,生成.xml文件,存入Annotations文件夹里

第三步:生成Main文件夹里的几个.txt文件,在Main文件夹里新建python文件如下

3、用.xml文件,生成.tfrecord文件在后面介绍

二、SSD训练模型并测试

1、下载SSD框架并解压

2、在解压出来的主目录下依次创建tfrecords_(存储.tfrecords文件)、train_model(存储训练模型)文件夹,继续使用一中的VOC2007文件夹

3、下面介绍如何生成.tfrecords文件

第一步:打开datasets文件夹中的pascalvoc_common.py文件,修改成自己的标签,对应前面打标签的.xml文件,前面标签时用的watch,此处一致

第二步:修改读取个数和读取方式,打开datasets文件夹中的pascalvoc_to_tfrecords.py

  • 修改67行SAMPLES_PER_FILES的个数;
  • 修改83行读取方式为'rb';
  • 如果你的文件不是.jpg格式,也可以修改图片的类型;

第三步:生成.tfrecords文件,在SSD模型中打开tf_convert_data.py文件,

依次点击:run、Edit Configuration,在Parameters中填入以下内容(配置运行需要的参数),再运行tf_convert_data.py文件

运行后在tfrecords_文件夹中可以看到生成的tfrecords文件

4、利用生成的tfrecords文件训练模型

(1)根据要训练的模型修改训练数据,在训练模型时会用到

第一步:修改训练数据
打开datasets文件夹中的pascalvoc_2007.py将num_classes=类别数修改为NUM_CLASSES = 1
TRAIN_STATISTICS数值修改,数据集由20张图片、每张图片包含一个手表,所以修改为

第二步:修改类别个数,打开nets文件夹中的ssd_vgg_300.py文件,根据自己训练类别修改96和97行
第三步:同第二步修改类别个数,打开eval_ssd_network.py文件,修改66行类别个数

第四步:修改训练步数epoch,打开train_ssd_network.py文件
  • 修改27行的数据格式,改为'NHWC';
  • 修改135行的类别个数:等于类别数+1
  • 修改154行训练总步数,None会无限训练下去;
  • 说明:60行、63行是关于模型保存的参数;
(2)下载模型,启动训练过程
第一步:下载vgg_16模型,解压后保存在checkpoints文件夹中

第二步:启动训练
打开train_ssd_network.py文件,修改运行参数

运行代码train_ssd_network.py,进入训练,训练后的模型保存在train_model文件夹中
第三步:测试模型

使用SSD训练自己的模型(从图片标注开始)相关推荐

  1. 图像识别模型中图片标注文件的txt和xml类型相互转换

    图像识别学习记录 一.TXT to XML 二.XML to TXT 最近学习图像识别在训练模型时需要将不同模型需要的标注格式来回批量转换,本文介绍了2种方法可以将XML和TXT标注信息相互转换. 网 ...

  2. 用caffe自带的训练好的模型测试图片的分类结果,实现啦啦啦

    1.caffemodel文件下载 可以直接在浏览器里输入地址下载,也可以运行脚本文件下载.下载地址为:http://dl.caffe.berkeleyvision.org/bvlc_reference ...

  3. yolov3模型识别不出训练图片_YOLOv3训练自己的模型

    3.0 前言 本文是YOLOv3系列第3篇,记录YOLOv3如何训练自己的模型. YOLOv3系列第2篇:YOLOv3的应用 建议参考github上作者的说明,写的十分清楚. 参考的网页: 3.1 配 ...

  4. CV之FR(H+k机器学习):基于每人几张人脸图片训练H+k模型实现(国内外明星)新人脸图像的姓名预测(准确度高达100%)

    CV之FR(H+k机器学习):基于每人几张人脸图片训练H+k模型实现(国内外明星)新人脸图像的姓名预测(准确度高达100%) 目录 输出结果 设计思路 输出结果 设计思路

  5. Pytorch 实现全连接神经网络/卷积神经网络训练MNIST数据集,并将训练好的模型在制作自己的手写图片数据集上测试

    使用教程 代码下载地址:点我下载 模型在训练过程中会自动显示训练进度,如果您的pytorch是CPU版本的,代码会自动选择CPU训练,如果有cuda,则会选择GPU训练. 项目目录说明: CNN文件夹 ...

  6. YOLO5 旋转模型图片标注及训练

    YOLO5 旋转模型图片标注及训练 使用工具 图片获取工具-- opencv_display.py 图片标注工具-- rolabelimg 标注转换工具-- roxml_to_dota.py 模型训练 ...

  7. AI 图片截取、ffmpeg使用及安装, anaconda环境,图片标注(labelme),模型训练(yolov5),CUDA+Pytorch安装及版本相关问题

    AI 图片截取(ffmpeg), anaconda环境,图片标注(labelme),模型训练(yolov5),CUDA+Pytorch安装及版本相关问题 一.截取有效图片 录制RTSP视频脚本 #!/ ...

  8. Yolov5自定义图片训练测试及模型调优(详细过程)

    Yolov5自定义图片训练测试及模型调优(详细过程) 1. 图像数据获取.标注 2. 数据集划分及准备 3. 配置训练参数,准备训练: 3.1 修改data/训练配置xxx.yaml文件: 3.2 修 ...

  9. 如何调用 caffe 训练好的模型对输入图片进行测试

    如何调用 caffe 训练好的模型对输入图片进行测试 该部分包括两篇文章 win10 下 caffe 的第一个测试程序(附带详细讲解) 主要讲解如何利用 caffe 来训练模型. 如何调用 caffe ...

最新文章

  1. Qt 获取文件夹下所有文件
  2. ECCV 2016《SSD: Single Shot MultiBox Detector》论文笔记
  3. 每天一小时python官方文档学习(七)————模块与包
  4. 单词翻转(信息学奥赛一本通-T1144)
  5. iPhone 13系列相机有大升级:全系支持光学防抖功能
  6. 使用Git bash软件计算文件MD5值
  7. 汇编语言虚拟机dosbox0.74使用教程
  8. Python给gif图片加文字水印
  9. keil uvision4 汉化破解版v4.12
  10. 你还在为找素材发愁吗?自媒体高手都知道的免费自媒体素材网
  11. matlab中ones()、inf用法
  12. R: symbol lookup error: /home/lib/../../libreadline.so.6: undefined symbol: PC
  13. mysql计算月初日期_mysql 获取上月、本月月初月末
  14. 3第三课:区块链的激励机制
  15. 用手机写一个抓cookie软件
  16. SQL Service数据库上机
  17. perl各个符号代表的意思
  18. 安装es-header插件
  19. 华硕 内存条 不同步_千元级的RGB台式内存条——让你的主机流光溢彩
  20. 百度网盘和官网下载并安装windows版本的Redis

热门文章

  1. 过分了,别人用来做桌面应用开发,这家伙却用来撩妹(2)-上帝给你开了各种撩妹窗口(Tkinter)
  2. 联诚展览,2023第十届中国(北京)国际智慧养老产业展览会
  3. 电脑上qq,pc电脑上qq怎么改密码?
  4. 城市拥堵加剧,都是互联网快车惹的祸?
  5. python文件操作--复制
  6. html5 svg画钟表,html5 svg创意卡通粒子时钟动画特效
  7. 苏宁易购818“悟空榜”战况激烈,“反馈经济”时代即将来临
  8. GBD+ | 绿色经济与产业链互联网之关系——进击的文创?
  9. 工业物联网与物联网区别_物联网节约用水,第3部分
  10. NX确实是SD卡烧录好之后直接插进卡槽,上电后直接使用,不需要任何其他设置操作。