Faster R-CNN教程

Faster R-CNN教程

最后更新日期:2016年4月29日

本教程主要基于python版本的faster R-CNN,因为python layer的使用,这个版本会比matlab的版本速度慢10%,但是准确率应该是差不多的。

目前已经实现的有两种方式:

  1. Alternative training
  2. Approximate joint training

推荐使用第二种,因为第二种使用的显存更小,而且训练会更快,同时准确率差不多甚至略高一点。

Contents

  1. 配置环境
  2. 安装步骤
  3. Demo
  4. 建立自己的数据集
  5. 训练和检测

配置环境

1配置python layers

#In your Makefile.config, make sure to have this line uncommented
WITH_PYTHON_LAYER := 1
# Unrelatedly, it's also recommended that you use CUDNN
USE_CUDNN := 1

2安装几个依赖cython, python-opencv, easydict

sudo apt-get install python-opencv
sudo pip install cython easydict

安装步骤

1克隆工程

git clone --recursive https://github.com/rbgirshick/py-faster-rcnn.git

2编译Cython模块

cd $FRCN_ROOT/lib
make

3编译caffe和pycaffe

cd $FRCN_ROOT/caffe-fast-rcnn
# Now follow the Caffe installation instructions here:
#   http://caffe.berkeleyvision.org/installation.html# If you're experienced with Caffe and have all of the requirements installed
# and your Makefile.config in place, then simply do:
make -j8 && make pycaffe

Demo

安装步骤完成后,就可以运行一下demo了。

cd $FRCN_ROOT
./tools/demo.py

训练自己的训练集

工程目录简介

首先工程的根目录简单的称为 FRCN_ROOT,可以看到根目录下有以下几个文件夹

  • caffe-fast-rcnn

这里是caffe框架目录

  • data

用来存放pretrained模型,比如imagenet上的,以及读取文件的cache缓存

  • experiments

存放配置文件以及运行的log文件,另外这个目录下有scripts可以用end2end或者alt_opt两种方式训练。

  • lib

用来存放一些python接口文件,如其下的datasets主要负责数据库读取,config负责cnn一些训练的配置选项。

  • models

里面存放了三个模型文件,小型网络的ZF,大型网络VGG16,中型网络VGG_CNN_M_1024。推荐使用VGG16,如果使用端到端的approximate joint training方法,开启CuDNN,只需要3G的显存即可。

  • output

这里存放的是训练完成后的输出目录,默认会在faster_rcnn_end2end文件夹下

  • tools

里面存放的是训练和测试的Python文件。

创建数据集

接下来我们就要创建自己的数据集了,这部分主要在lib目录里操作。这里下面存在3个目录:

  • datasets

在这里修改读写数据的接口主要是datasets目录下

  • fast_rcnn

主要存放的是python的训练和测试脚本,以及训练的配置文件config.py

  • nms

做非极大抑制的部分,有gpu和cpu两种实现方式

  • roi_data_layer

主要是一些ROI处理操作

  • rpn

这就是RPN的核心代码部分,有生成proposals和anchor的方法

  • transform

  • utils

1构建自己的IMDB子类

1.1文件概述
可有看到datasets目录下主要有三个文件,分别是

  • factory.py
  • imdb.py
  • pascal_voc.py

factory.py 是个工厂类,用类生成imdb类并且返回数据库共网络训练和测试使用;imdb.py 这里是数据库读写类的基类,分装了许多db的操作,但是具体的一些文件读写需要继承继续读写;pascal_voc.py Ross在这里用pascal_voc.py这个类来操作。

1.2读取文件函数分析
接下来我来介绍一下pasca_voc.py这个文件,我们主要是基于这个文件进行修改,里面有几个重要的函数需要修改

  • def init(self, image_set, year, devkit_path=None)
    这个是初始化函数,它对应着的是pascal_voc的数据集访问格式,其实我们将其接口修改的更简单一点。
  • def image_path_at(self, i)
    根据第i个图像样本返回其对应的path,其调用了image_path_from_index(self, index)作为其具体实现
  • def image_path_from_index(self, index)
    实现了 image_path的具体功能
  • def _load_image_set_index(self)
    加载了样本的list文件
  • def _get_default_path(self)
    获得数据集地址
  • def gt_roidb(self)
    读取并返回ground_truth的db
  • def selective_search_roidb
    读取并返回ROI的db,这个是fast rcnn用的,faster版本的不用管这个函数。
  • def _load_selective_search_roidb(self, gt_roidb)
    加载预选框的文件
  • def selective_search_IJCV_roidb(self)
    在这里调用读取Ground_truth和ROI db并将db合并
  • def _load_selective_search_IJCV_roidb(self, gt_roidb)
    这里是专门读取作者在IJCV上用的dataset
  • def **_load_pascal_annotation**(self, index)
    这个函数是读取gt的具体实现
  • def _write_voc_results_file(self, all_boxes)
    voc的检测结果写入到文件
  • def _do_matlab_eval(self, comp_id, output_dir='output')
    根据matlab的evluation接口来做结果的分析
  • def evaluate_detections
    其调用了_do_matlab_eval
  • def competition_mode
    设置competitoin_mode,加了一些噪点

1.3训练数据格式

在我的检测任务里,我主要是在SED数据集上做行人检测,因此我这里只有background 和person 两类物体,为了操作方便,我像pascal_voc数据集里面一样每个图像用一个xml来标注。如果大家不知道怎么生成xml文件,可以用这个工具 labelImg?

这里我要特别提醒一下大家,一定要注意坐标格式,一定要注意坐标格式,一定要注意坐标格式,重要的事情说三遍!!!要不然你会犯很多错误都会是因为坐标不一致引起的报错。

1.4修改读取接口
这里是原始的pascal_voc的init函数,在这里,由于我们自己的数据集往往比voc的数据集要更简单的一些,在作者代码里面用了很多的路径拼接,我们不用去迎合他的格式,将这些操作简单化即可,在这里我会一一列举每个我修改过的函数。这里按照文件中的顺序排列。

修改后的初始化函数:

classhs(imdb):def__init__(self, image_set, devkit_path=None):  # modifiedimdb.__init__(self, image_set)self._image_set = image_setself._devkit_path =  devkit_path   #datasets路径self._data_path = os.path.join(self._devkit_path,image_set)   #图片文件夹路径self._classes = ('__background__', # always index 0'person')   #two classesself._class_to_ind = dict(zip(self.classes, xrange(self.num_classes))) # form the dict{'__background__':'0','person':'1'}self._image_ext = '.jpg'self._image_index = self._load_image_set_index('ImageList.txt')# Default to roidb handlerself._roidb_handler = self.selective_search_roidbself._salt = str(uuid.uuid4())self._comp_id = 'comp4'# PASCAL specific config optionsself.config = {'cleanup'     : True,'use_salt'    : True,'use_diff'    : False,'matlab_eval' : False,'rpn_file'    : None,'min_size'    : 16}  #小于16个像素的框扔掉assert os.path.exists(self._devkit_path), \'VOCdevkit path does not exist: {}'.format(self._devkit_path)assert os.path.exists(self._data_path), \'Path does not exist: {}'.format(self._data_path)

修改后的image_path_from_index:

defimage_path_from_index(self, index): #modified"""Construct an image path from the image's "index" identifier."""image_path = os.path.join(self._data_path,index +'.jpg')assert os.path.exists(image_path), \'Path does not exist: {}'.format(image_path)return image_path

修改后的_load_image_set_index:

def_load_image_set_index(self,imagelist): # modified"""Load the indexes listed in this dataset's image set file."""# Example path to image set file:# self._devkit_path + /VOCdevkit2007/VOC2007/ImageSets/Main/val.txtimage_set_file = os.path.join(self._devkit_path, imagelist)assert os.path.exists(image_set_file), \'Path does not exist: {}'.format(image_set_file)with open(image_set_file) as f:image_index = [x.strip() for x in f.readlines()]return image_index

gt_roidb(self):

这个函数里有个生成ground truth的文件,我需要特别说明一下,如果你再次训练的时候修改了数据库,比如添加或者删除了一些样本,但是你的数据库名字函数原来那个,必须要在data/cache/目录下把数据库的缓存文件.pkl给删除掉,否则其不会重新读取相应的数据库,而是直接从之前读入然后缓存的pkl文件中读取进来,这样修改的数据库并没有进入网络,而是加载了老版本的数据。

修改的_load_pascal_annotation(self, index):

def_load_pascal_annotation(self, index):    #modified"""Load image and bounding boxes info from XML file in the PASCAL VOCformat."""filename = os.path.join(self._devkit_path, 'Annotations', index + '.xml')tree = ET.parse(filename)objs = tree.findall('object')if not self.config['use_diff']:# Exclude the samples labeled as difficultnon_diff_objs = [obj for obj in objs if int(obj.find('difficult').text) == 0]# if len(non_diff_objs) != len(objs):#     print 'Removed {} difficult objects'.format(#         len(objs) - len(non_diff_objs))objs = non_diff_objsnum_objs = len(objs)boxes = np.zeros((num_objs, 4), dtype=np.uint16)gt_classes = np.zeros((num_objs), dtype=np.int32)overlaps = np.zeros((num_objs, self.num_classes), dtype=np.float32)# "Seg" area for pascal is just the box areaseg_areas = np.zeros((num_objs), dtype=np.float32)# Load object bounding boxes into a data frame.for ix, obj in enumerate(objs):bbox = obj.find('bndbox')# Make pixel indexes 0-basedx1 = float(bbox.find('xmin').text)y1 = float(bbox.find('ymin').text)x2 = float(bbox.find('xmax').text)y2 = float(bbox.find('ymax').text)cls = self._class_to_ind[obj.find('name').text.lower().strip()]boxes[ix, :] = [x1, y1, x2, y2]gt_classes[ix] = clsoverlaps[ix, cls] = 1.0seg_areas[ix] = (x2 - x1 + 1) * (y2 - y1 + 1)overlaps = scipy.sparse.csr_matrix(overlaps)return {'boxes' : boxes,'gt_classes': gt_classes,'gt_overlaps' : overlaps,'flipped' : False,'seg_areas' : seg_areas}

因为我和Pascal用了一样的xml格式,所以这个函数我的改动不多。如果你想用txt文件保存ground truth,做出相应的修改即可。

坐标的顺序强调一下,要左上右下,并且x1必须要小于x2,这个是基本,反了会在坐标水平变换的时候会出错,坐标从0开始,如果已经是0,则不需要再-1。如果怕出错,可以直接把出界的的直接置0.

记得在最后的main下面也修改相应的路径

from datasets.hs import hs
d = hs('hs', '/home/zyy/workspace/wangml/py-faster-rcnn/lib/datasets/')
res = d.roidb
from IPython import embed; embed()

OK,在这里我们已经完成了整个的读取接口的改写。

2修改factory.py
当网络训练时会调用factory里面的get方法获得相应的imdb,
首先在文件头import 把pascal_voc改成hs

# --------------------------------------------------------
# Fast R-CNN
# Copyright (c) 2015 Microsoft
# Licensed under The MIT License [see LICENSE for details]
# Written by Ross Girshick
# --------------------------------------------------------"""Factory method for easily getting imdbs by name."""__sets = {}from datasets.hs import hs
import numpy as np# # Set up voc_<year>_<split> using selective search "fast" mode
# for year in ['2007', '2012']:
#     for split in ['train', 'val', 'trainval', 'test']:
#         name = 'voc_{}_{}'.format(year, split)
#         __sets[name] = (lambda split=split, year=year: pascal_voc(split, year))
#
# # Set up coco_2014_<split>
# for year in ['2014']:
#     for split in ['train', 'val', 'minival', 'valminusminival']:
#         name = 'coco_{}_{}'.format(year, split)
#         __sets[name] = (lambda split=split, year=year: coco(split, year))
#
# # Set up coco_2015_<split>
# for year in ['2015']:
#     for split in ['test', 'test-dev']:
#         name = 'coco_{}_{}'.format(year, split)
#         __sets[name] = (lambda split=split, year=year: coco(split, year))name = 'hs'
devkit = '/home/zyy/workspace/wangml/py-faster-rcnn/lib/datasets/'
__sets['hs'] = (lambda name = name,devkit = devkit: hs(name,devkit))defget_imdb(name):"""Get an imdb (image database) by name."""if not __sets.has_key(name):raise KeyError('Unknown dataset: {}'.format(name))return __sets[name]()deflist_imdbs():"""List all registered imdbs."""return __sets.keys()

训练和检测

1.预训练模型介绍
首先在data目录下,有两个目录

  • faster_rcnn_models/

  • imagenet_models/

faster_rcnn_model文件夹下面是作者用faster rcnn训练好的三个网络,分别对应着小、中、大型网络,大家可以试用一下这几个网络,看一些检测效果,他们训练都迭代了80000次,数据集都是pascal_voc的数据集。

imagenet_model文件夹下面是在Imagenet上训练好的通用模型,在这里用来初始化网络的参数.

在这里我比较推荐先用中型网络训练,中型网络训练和检测的速度都比较快,效果也都比较理想,大型网络的话训练速度比较慢,中型网络训练大概半天,大型网络的话用25个小时。

2.修改模型文件配置
模型文件在models下面对应的网络文件夹下,在这里我用中型网络的配置文件修改为例子
比如:我的检测目标物是person ,那么我的类别就有两个类别即 background 和 person
因此,首先打开网络的模型文件夹,打开train.prototxt
修改的地方重要有三个
分别是个地方

  1. 首先在data层把num_classes 从原来的21类 20类+背景 ,改成 2类 人+背景
  2. 接在在cls_score层把num_output 从原来的21 改成 2
  3. 在bbox_pred层把num_output 从原来的84 改成8, 为检测类别个数乘以4,比如这里是2类那就是2*4=8

OK,如果你要进一步修改网络训练中的学习速率,步长,gamma值,以及输出模型的名字,需要在同目录下的solver.prototxt中修改。

3.启动Fast RCNN网络训练

python ./tools/train_net.py --gpu 1 --solver models/hs/faster_rcnn_end2end/solver.prototxt --weights data/imagenet_models/VGG_CNN_M_1024.v2.caffemodel --imdb hs --iters 80000 --cfg experiments/cfgs/faster_rcnn_end2end.yml

参数讲解:

  • 这里的–是两个-,不要输错

  • train_net.py是网络的训练文件,之后的参数都是附带的输入参数

  • --gpu 代表机器上的GPU编号,如果是nvidia系列的tesla显卡,可以在终端中输入nvidia-smi来查看当前的显卡负荷,选择合适的显卡

  • --solver 代表模型的配置文件,train.prototxt的文件路径已经包含在这个文件之中

  • --weights 代表初始化的权重文件,这里用的是Imagenet上预训练好的模型,中型的网络我们选择用VGG_CNN_M_1024.v2.caffemodel

  • --imdb 这里给出的训练的数据库名字需要在factory.py的_sets中,我在文件里面有_sets[‘hs’],train_net.py这个文件会调用factory.py再生成hs这个类,来读取数据

4.启动Fast RCNN网络检测
可以参考tools下面的demo.py 文件,来做检测,并且将检测的坐标结果输出到相应的txt文件中。

最后

鉴于之前我用的版本是15年11月的版本,有些小伙伴在使用此教程时会有一些错误,所以我重新做了部分修订,目前能够在2016年4月29日版本的版本上成功运行,如果有问题,随时联系我。

参考博客:http://www.cnblogs.com/louyihang-loves-baiyan/p/4885659.html

转载于:https://www.cnblogs.com/huty/p/8517174.html

[计算机视觉][神经网络与深度学习]Faster R-CNN配置及其训练教程相关推荐

  1. [计算机视觉][神经网络与深度学习]Faster R-CNN配置及其训练教程2

    faster-rcnn分为matlab版本和python版本,首先记录弄python版本的环境搭建过程.matlab版本见另一篇:faster-rcnn(testing): ubuntu14.04+c ...

  2. 学习神经网络(深度学习)电脑的配置要求

    学习神经网络(深度学习)电脑的配置要求 个人电脑配置与使用感受(电脑小白) 我目前所使用的电脑的配置是 (1)CPU:i5-9300H (2)显卡(GPU):GTX1650-4G(4G表示显存) (3 ...

  3. 神经网络及深度学习CNN

    神经网络及深度学习CNN 一.传统人工神经网络(ANN) 二.CNN 1.CNN层次 1.1 输入层 1.2 卷积层 1.3 激励层 1.4 池化层 1.4 全连接层 1.5 归一化层 2.CNN的应 ...

  4. R语言神经网络与深度学习(一)

    #R语言神经网络与深度学习(一) #画出ReLU函数 x=seq(-1,1,0.1)   #生成x变量,赋值-1~1等差数列 relu=function(x) ifelse(x>0,x,0)   ...

  5. 神经网络与深度学习 作业7:第五章课后题(1×1 卷积核 | CNN BP)

    目录 习题5-2 证明宽卷积具有交换性,即公式(5.13). 习题5-3 分析卷积神经网络中用1x1的卷积核的作用. 习题5-4 对于一个输入为100x100x256的特征映射组,使用3x3的卷积核, ...

  6. DL:基于神经网络的深度学习模型的总概览简介(DNN/CNN/RNN等)、各种网络结构对比、案例应用对比之详细攻略

    DL:基于神经网络的深度学习模型的总概览简介(DNN/CNN/RNN等).各种网络结构对比.案例应用对比之详细攻略 目录 神经网络所有模型的简介(概览) DNN.CNN.RNN结构对比 相关文章 DL ...

  7. 三维图形几何变换算法实验_计算机视觉方向简介 | 深度学习视觉三维重建

    点击上方"计算机视觉life",选择"星标" 快速获得最新干货 作者: Moonsmile https://zhuanlan.zhihu.com/p/79628 ...

  8. 神经网络与深度学习【自用】

    神经网络与深度学习 1.1深度学习概述 深度学习(Deep Learning)就是更复杂的神经网络(Neural Network) 神经网络(Neural Network) 引入神经网络模型的概念: ...

  9. 深度学习掩膜_交叉新趋势|采用神经网络与深度学习来预报降水、温度等案例(附代码/数据/文献)...

    欢迎订阅微信公众号:『气象学家』 阅读建议 随着人工智能的发展,拥有了越来越丰富的应用场景,气象行业也不例外,在突破传统预报方法的情况下,神经网络与深度学习来预报气象要素也取得了不错的效果,下面就给出 ...

最新文章

  1. hdu3613(扩展KMP)
  2. 带t2芯片的mac装linux,Macbook Air 2018(包含T2芯片)安装Precision Touchpad触摸板驱动...
  3. 欲从事服务端工作不懂seata?一篇小demo零基础带你快速掌握分布式事务框架seata的基本使用!
  4. Asp.net 关于错误提示 类型“XXX1”在未被引用的程序集中定义,必须添加对程序集XXX2的引用...
  5. 如何往eclipse中导入maven项目
  6. [每天一个知识点]14-Java语言-字符串拼接
  7. 数据平台、大数据平台、数据中台……还分的清不?
  8. 个人笔记------无级分类格式化
  9. Python删除文件中含有特定值的行
  10. WebService的知识总结(一)
  11. iOS人脸识别(检测)
  12. Vin码识别/车架号识别
  13. CSU2020期中测试题(2)WOWO爬水井
  14. 如何用3天在成都逛吃玩过瘾?
  15. 麦克劳林级数与麦克劳林公式(泰勒公式)
  16. GPS之MTK平台代码小结以及gps协议注释
  17. Java实现Word转PDF方案选择
  18. 在线加密解密工具地址 https://www.keylala.cn
  19. 怎样消除公司的信息孤岛
  20. 01|读研这三年,你亏么?(研一篇)

热门文章

  1. linkText()的用法
  2. XenApp_XenDesktop_7.6实战篇之九:SQL Server数据库服务器规划及部署
  3. linux下好用的软件
  4. 多种分布式文件系统简介
  5. 红帆科技将参展2009第十三届中国国际软件博览会
  6. [更正]谈获取当前系统类型(SP OR PPC)
  7. Apache软件基金会宣布Apache Unom成为顶级项目
  8. 021 设计模式之工厂方法模式,抽象工厂模式的区别
  9. 影像采集-拍照 (用自己的插件 )简单逻辑
  10. 阿里新财报霸道惨了!菜鸟加速全球72小时必达,世界都沸腾!