1.配置caffe环境

[请参考此篇博客:http://blog.csdn.net/ws_20100/article/details/48850449]

本篇介绍如何在caffe环境下,实现"图像对图像"的卷积神经网络的训练。

2.文件结构

在配置好的caffe文件夹中,进入examples目录,创建CNN文件夹,并进入文件夹

$ cd caffe-master/examples/

$ mkdir CNN

$ cd CNN/

CNN文件夹下面创建子文件夹

$ mkdir model snapshot TestPhotos TestLabels TrainPhotos TrainLabels

其中,

model用于以后存储卷积核矩阵和偏置向量;

snapshot用于存储训练中备份的caffe模型,每一段时间存储一次,防止断电等一些情况;

TrainPhotosTrainLabels分别存储训练集输入和监督样本;

TestPhotosTestLabels分别存储测试集输入和监督样本,不直接参与到训练中。

然后,将训练所用的输入样本和监督样本分别放入到TrainPhotos和TrainLabels中去。注意,样本文件名无所谓,但是排列次序必须一一对应。同样,将测试所用的输入样本和监督样本分别放入到TestPhotos和TestLabels中去。

3.产生训练和测试数据

1.)产生路径文件

CNN文件夹下面(以下均是在此文件夹下)创建两个路径文件。

$ vim train.txt

输入内容:

examples/CNN/train.h5

:wq保存文档。

$ vim test.txt

输入内容:

examples/CNN/test.h5

:wq保存文档。

2.)产生训练数据

$ vim generate_train.m

输入内容:(把输入图像切成11*11的像素块,监督图像为3*3的像素块(由网络结构和卷积核大小决定),步长为1个像素)

clear;close all;%% settings
folder_input = 'TrainPhotos';
folder_label = 'TrainLabels';
savepath = 'train.h5';
size_input = 11;
size_label = 3; % size_input - 12
stride = 1;%% initialization
data = zeros(size_input, size_input, 1, 1);
label = zeros(size_label, size_label, 1, 1);
padding = abs(size_input - size_label) / 2;
count = 0;%% read data
filepaths_input = dir(fullfile(folder_input,'*.jpg'));
filepaths_label = dir(fullfile(folder_label,'*.jpg'));if (length(filepaths_input)==length(filepaths_label))length = length(filepaths_input);
elseerror('The Number of Input is NOT equal to the Number of Label.');
end%% generate data
for i = 1 : lengthim_input = imread(fullfile(folder_input,filepaths_input(i).name));im_input = rgb2ycbcr(im_input);im_input = im2double(im_input(:, :, 1));im_label = imread(fullfile(folder_label,filepaths_label(i).name));im_label = im2double(im_label(:, :, 1));if size(im_input) == size(im_label)[hei,wid] = size(im_input);elseerror('The size of input and label are not equal.');endfor x = 1 : stride : hei-size_input+1for y = 1 :stride : wid-size_input+1subim_input = im_input(x : x+size_input-1, y : y+size_input-1);subim_label = im_label(x+padding : x+padding+size_label-1, y+padding : y+padding+size_label-1);count = count + 1;data(:, :, 1, count) = subim_input;label(:, :, 1, count) = subim_label;endendend%% randomized the data and label
order = randperm(count);
data = data(:, :, 1, order);
label = label(:, :, 1, order); %% writing to HDF5
chunksz = 128;
created_flag = false;
totalct = 0;for batchno = 1:floor(count/chunksz)last_read=(batchno-1)*chunksz;batchdata = data(:,:,1,last_read+1:last_read+chunksz); batchlabs = label(:,:,1,last_read+1:last_read+chunksz);startloc = struct('dat',[1,1,1,totalct+1], 'lab', [1,1,1,totalct+1]);curr_dat_sz = store2hdf5(savepath, batchdata, batchlabs, ~created_flag, startloc, chunksz); created_flag = true;totalct = curr_dat_sz(end);
end
h5disp(savepath);

终端下输入:

$ matlab -nodesktop -nosplash -logfile generate_train.log -r generate_train

产生训练数据train.h5。

3.)产生测试数据

$ vim generate_test.m

generate_test.m只需要将generate_test.m文件开头改为:

clear;close all;%% settings
folder_input = 'TestPhotos';
folder_label = 'TestLabels';
savepath = 'test.h5';
size_input = 11;
size_label = 3;
stride = 30;

将最后一段改成:

%% writing to HDF5
chunksz = 2;
created_flag = false;
totalct = 0;for batchno = 1:floor(count/chunksz)last_read=(batchno-1)*chunksz;batchdata = data(:,:,1,last_read+1:last_read+chunksz); batchlabs = label(:,:,1,last_read+1:last_read+chunksz);startloc = struct('dat',[1,1,1,totalct+1], 'lab', [1,1,1,totalct+1]);curr_dat_sz = store2hdf5(savepath, batchdata, batchlabs, ~created_flag, startloc, chunksz); created_flag = true;totalct = curr_dat_sz(end);
end
h5disp(savepath);

终端下输入:

$ matlab -nodesktop -nosplash -logfile generate_test.log -r generate_test

产生测试数据test.h5。仅仅用于判断训练到达什么地步。

4.建立训练文件

1.)建立solver文件

$ vim CNN_solver.prototxt

此为运行的配置文件,输入以下内容:

# The train/test net protocol buffer definition
net: "examples/CNN/CNN_net.prototxt"
test_iter: 556
# Carry out testing every 500 training iterations.
test_interval: 500
# The base learning rate, momentum and the weight decay of the network.
base_lr: 0.0001
momentum: 0.9
weight_decay: 0
# The learning rate policy
lr_policy: "fixed"
# Display every 100 iterations
display: 100
# The maximum number of iterations
max_iter: 15000000
# snapshot intermediate results
snapshot: 500
snapshot_prefix: "examples/CNN/snapshot/CNN"
# solver mode: CPU or GPU
solver_mode: GPU

:wq保存退出。

2.)建立net文件

$ vim CNN_net.prototxt

此为网络结构配置文件,可以配置网络层数,节点数,卷积核等参数。输入以下内容:

name: "CNN"
layer {name: "data"type: "HDF5Data"top: "data"top: "label"hdf5_data_param {source: "examples/CNN/train.txt"batch_size: 128}include: { phase: TRAIN }
}
layer {name: "data"type: "HDF5Data"top: "data"top: "label"hdf5_data_param {source: "examples/CNN/test.txt"batch_size: 2}include: { phase: TEST }
}layer {name: "conv1"type: "Convolution"bottom: "data"top: "conv1"param {lr_mult: 1}param {lr_mult: 0.1}convolution_param {num_output: 128kernel_size: 5stride: 1pad: 0weight_filler {type: "gaussian"std: 0.001}bias_filler {type: "constant"value: 0}}
}layer {name: "relu1"type: "ReLU"bottom: "conv1"top: "conv1"
}layer {name: "conv2"type: "Convolution"bottom: "conv1"top: "conv2"param {lr_mult: 1}param {lr_mult: 0.1}convolution_param {num_output: 64kernel_size: 3stride: 1pad: 0weight_filler {type: "gaussian"std: 0.001}bias_filler {type: "constant"value: 0}}
}layer {name: "relu2"type: "ReLU"bottom: "conv2"top: "conv2"
}layer {name: "conv3"type: "Convolution"bottom: "conv2"top: "conv3"param {lr_mult: 0.1}param {lr_mult: 0.1}convolution_param {num_output: 1kernel_size: 3stride: 1pad: 0weight_filler {type: "gaussian"std: 0.001}bias_filler {type: "constant"value: 0}}
}layer {name: "loss"type: "EuclideanLoss"bottom: "conv3"bottom: "label"top: "loss"
}

:wq保存退出。

5.CNN训练

$ vim train.sh

输入以下shell:

#!/bin/bash
cd ../../
./build/tools/caffe train --solver examples/CNN/CNN_solver.prototxt 2>&1 | tee examples/CNN/CNN.log

增加运行权限:

$ chmod +x train.sh

运行脚本文件:

$ ./train.sh

时间可能会运行几天,也可以提前退出(Ctrl+C),因为在snapshot中有中间备份存储。

6.保存滤波器

1.)创建mat文件

$ cp CNN_net.prototxt CNN_mat.prototxt

将CNN_mat.prototxt文件开头两个layer段改为:

name: "CNN"
input: "data"
input_dim: 1
input_dim: 1
input_dim: 11
input_dim: 11input: "label"
input_dim: 1
input_dim: 1
input_dim: 3
input_dim: 3

:wq保存即可。

2.)创建M文件

$ vim saveFilters.m

输入以下内容:(第7行可以更改需要转换的caffemodel文件名)

caffe.reset_all();
clear; close all;
%% settings
%folder = 'examples/CNN/';
folder = './';
model = [folder 'CNN_mat.prototxt'];
weights = [folder 'snapshot/CNN_iter_550000.caffemodel'];
savepath = [folder 'model/x.mat'];
layers = 3;%% load model using mat_caffe
net = caffe.Net(model,weights,'test');%% reshap parameters
weights_conv = cell(layers,1);for idx = 1 : layersconv_filters = net.layers(['conv' num2str(idx)]).params(1).get_data();[~,fsize,channel,fnum] = size(conv_filters);if channel == 1weights = double(ones(fsize^2, fnum));elseweights = double(ones(channel, fsize^2, fnum));endfor i = 1 : channelfor j = 1 : fnumtemp = conv_filters(:,:,i,j);if channel == 1weights(:,j) = temp(:);elseweights(i,:,j) = temp(:);endendendweights_conv{idx} = weights;
end%% save parameters
weights_conv1 = weights_conv{1};
weights_conv2 = weights_conv{2};
weights_conv3 = weights_conv{3};
biases_conv1 = double(net.layers('conv1').params(2).get_data());
biases_conv2 = double(net.layers('conv2').params(2).get_data());
biases_conv3 = double(net.layers('conv3').params(2).get_data());save(savepath,'weights_conv1','biases_conv1','weights_conv2','biases_conv2','weights_conv3','biases_conv3');

:wq保存。

3.)运行M文件

$ matlab -nodesktop -nosplash -logfile saveFilters.log -r saveFilters

此时,在model中会生成x.mat文件。

7.CNN重构

已经知道了x.mat文件中,有三层卷积层的卷积核矩阵weights_conv*和偏置向量biases_conv*。

编写一个demo_net.m文件,使用这些参数构建卷积网络结构,对输入图像(矩阵)进行处理,即可得到结果。

不同应用有不同的源码,这里省略该文件源码。

本文可能叙述不全面,如有错误,欢迎指正!

Enjoy~~

转载于:https://www.cnblogs.com/lixuebin/p/10814875.html

使用GPU在caffe上进行CNN训练相关推荐

  1. Caffe上用SSD训练和测试自己的数据

        学习caffe第一天,用SSD上上手. 我的根目录$caffe_root为/home/gpu/ljy/caffe    一.运行SSD示例代码    1.到https://github.com ...

  2. caffe读书笔记1 CIFAR-10在caffe上进行训练与学习

    原文地址:caffe读书笔记1 CIFAR-10在caffe上进行训练与学习-薛开宇作者:残夕云翳 本次学习笔记作用,知道如何在caffe上训练与学习,如何看结果. 1.1使用数据库:CIFAR-10 ...

  3. gpu填充速率 计算_【经典回顾】Nvidia GPU 上的 CNN 计算速度变迁

    笔者从 2012 年初开始接触 GPU 编程,2014 年上半年开始接触 Caffe,可以毫不谦虚地说是"一天天看着 Nvidia GPU 和 Caffe 长大的". Nvidia ...

  4. Caffe上训练使用自己的数据

    Caffe上训练使用自己的数据 from: http://www.wjxfpf.com/2015/10/824918.html 接着上篇,上篇讲解了怎么在ubuntu下安装Caffe,如果一切没问题的 ...

  5. Github上利用win10使用TensorFlow(GPU)上如何去训练一个目标多分类检测的例子

    Github上利用win10使用TensorFlow(GPU)上如何去训练一个目标多分类检测的例子 我们从github找到一个用fast-rcnn训练模型用于目标物体检测的例子,文中是实现检测扑克牌的 ...

  6. INFOCOM 2021最佳论文奖:一种新颖的分布式算法提高在GPU集群上训练大型AI模型的效率

    INFOCOM 2021最佳论文:Exploiting Simultaneous Communications to Accelerate Data Parallel Distributed Deep ...

  7. CNN训练注意事项与框架使用

    一.CNN训练注意事项 神经网络训练采用的方法是SGD,严格意义上是Mini-batch SGD.过程如下: 1.SGD过程 不断循环如下过程: (1)采样一个 batch 数据(比如 32 张 , ...

  8. 怎么使用 Caffe 进行 LetNet-5 的训练和预测

    在 LeNet5的深入解析 我们已经对 LetNet-5 网络结构做出了详细的描述,接下来我们将深入分析 Caffe 中怎么使用 LetNet-5 的这个模型进行预测. Caffe 中关于 LetNe ...

  9. 视频分类之 UCF-101 上的 CNN 方法详解

    视频分类之 UCF-101 上的 CNN 方法详解 Code at Github: https://github.com/sujiongming/UCF-101_video_classificatio ...

最新文章

  1. BigInteger和BigDecimal类
  2. Image Cloud Gallery
  3. 匿名管道实现获取控制台程序输出
  4. java 写文件 异常 磁盘空间满_系统磁盘空间满的一个问题
  5. Spring Data Redis与Jedis的选择(转)
  6. .NET 6 平台系列1 .NET Framework发展历程
  7. drill apache_Apache Drill 1.4性能增强的简要概述
  8. [JSON].valueOf( keyPath )
  9. java byte 判断相等_你真的了解Java中quot;==quot;和equals()的区别?
  10. Android开发:调用camera API 创建MediaRecorder
  11. 信息学奥赛一本通(1116:最长平台)
  12. 工程实践之 复杂保存解构 TODO
  13. dnf剑魂buff等级上限_DNF:又是随机大坑?8月新护石装备可升级,但升3个需要刷半年...
  14. 超越村后端开发(7:修改完善代码(持续更新))
  15. java udp 流量控制_基于UDP传输协议的实现分析之流量和拥塞控制
  16. 优雅的封装ajax,含跨域
  17. CSS基础——CSS复合选择器【学习笔记】
  18. HDU1229 还是A+B【水题】
  19. linux date -d 的一些使用方法
  20. Atitit 搜索工程师的知识点体系总结 目录 1.1. 理论类 索引 与查询 1 1.2. 类库类 1 1.3. 关联知识类 1 1.4. 其他 1 2. Ref 2 2.1. Atitit 文

热门文章

  1. 【枭·音频】感同声受——《暗影火炬城》PS5 HD震动制作
  2. Unity手游开发札记——移动平台的天气系统实现
  3. 游戏AI研究(三):路径规划
  4. pyecharts第五节、关系图
  5. 2019牛客暑期多校训练营(第一场) A Equivalent Prefixes ( st 表 + 二分+分治)
  6. unittest框架学习笔记
  7. PAT 1079. Total Sales of Supply Chain
  8. python之ORM操作
  9. 深有体会的积极人生态度
  10. mysql const ref_mysql explain详解