文章首发于微信公众号《与有三学AI》

[caffe解读] caffe从数学公式到代码实现1-导论

真的很多年没有认真写csdn博客了,我回来了

今天开一个新板块,目标是死磕现有的几大机器学习框架的代码,给想入门的小白们一些帮助。

作为一个在图像行业战斗了几年的程序员,深知入门一个框架,和真的能用好一个框架是有很大的区别的,而要想走的更远,开源框架的底层代码一定要去详读。

同时,很多的坑也是在代码中,不仔细读是不知道的。所以,我会来跟大家系统细致地学习一些主流的机器学习框架。

今天这个是caffe,大概会有7篇左右的文章,一般读caffe代码思路是按照caffe的层级结构来,blob到layer到net各自分层来读,但我想提供一个另外的思路,从数学公式到代码实现。

从每一个文件背后具体的数学含义来读,这对于我们非数学系或者数学基础不是很好的工程人员来说,是比较适合的。

采取的形式就是,layer definition,caffe layer,caffe testlayer的格式,举个例子来说,比如softmax,那我就打算从softmax的数学定义,caffe softmax层的实现,caffesoftmax test layer的实现。重要代码要加上test layer,因为当我们自己实现某些类时,往往需要梯度反向求导,这时候最好自己写test来验证自己的代码是否正确。

好了,下面就开始吧。当然,现在这是第一篇,所以我们还是不可避免先打下基础,先要阅读下面的内容,对caffe的代码有基本的了解。这是include/caffe根目录下面的代码list。

blob.hpp
caffe.hpp
common.hpp
data_transformer.hpp
filler.hpp
internal_thread.hpp
layer.hpp
layer_factory.hpp
net.hpp
parallel.hpp
sgd_solvers.hpp
solver.hpp
solver_factory.hpp
syncedmem.hpp

一个一个来。

01 blob.hpp&cpp

blob是caffe中的基础数据单元,一个blob是一个四维张量,(N,C,H,W),N是batch size大小,C是channel,H,W分别是图像宽高,由于caffe擅长于做图像,所以这个定义天然适合图像。故一个256*256的rgb图像,blob size是(1,3,256,256)。

blob.hpp,需要注意的就是下面的变量和函数

其中data_存储数据,diff_存储梯度,shape_分别是blob_的尺度,count_是所有数据数目,即N*C*H*W。

以后要访问这些数据,就会用到下面的函数,其中cpu_data是只读,mutable_cpu_data是可写,gpu类似。

上面还有一个疑问,那就是初次见到SyncedMemory类会不知道它是做什么的,它主要负责在GPU或者CPU上分配内存以及保持数据的同步作用。

可参考下面资料:

http://blog.csdn.net/xizero00/article/details/51001206

http://www.cnblogs.com/korbin/p/5606770.html

由于展开是另一个篇幅,因此我们不过多停留在此,知道blob是通过这样的方式存取即可。

02 caffe.hpp&cpp等

把这几个放这里,一是这里很多是关于gpu和内存等较为底层的编程的,看起来比较费劲,一般也不需要去修改,大家会用即可。重点会讲一下factory。

caffe.hpp头文件包含其他基础hpp。

internal_thread.hpp,与线程有关的变量函数。

parallel.hpp,与并行有关的变量函数。

syncedmem.hpp,内存分配和Caffe的底层数据的切换

solver_factory.hpp,layer_factory.hpp,顾名思义,分别是caffe solver的工厂类模板定义和普通layer的模板定义。

举例拿sovler来多说几句,solver_factory.hpp,其中solver指的是优化方法,由于caffe优化采用的就是梯度下降的方法,包括SGD,NesterovSolver,RMSPropSolver,AdamSolver等通通都定义在sgd_solvers.hpp中。

工厂设计模型,简单了解如下

http://developer.51cto.com/art/201107/277728.htm

http://alanse7en.github.io/caffedai-ma-jie-xi-4/

深入了解需要自己去看,从代码的角度来看就是解决重复造轮子的问题,减少重复代码,在caffe的面试中经常会问到噢。

看下它的代码,重要变量两个

typedef Solver<Dtype>* (*Creator)(const
SolverParameter&);

typedef std::map<string, Creator>
CreatorRegistry;

重要函数两个,

static CreatorRegistry& Registry() { staticCreatorRegistry*
g_registry_ = new CreatorRegistry();
  return *g_registry_;
}
static Solver<Dtype>* CreateSolver(const
SolverParameter& param) {
  const string& type = param.type();
  CreatorRegistry& registry = Registry();
  CHECK_EQ(registry.count(type), 1) << "Unknownsolver type: " << type
      << " (known types: " << SolverTypeListString()<< ")";
  return registry[type](param);
}

其中需要注意的是,SolverParameter是一个配置参数不说,CreatorRegistry就是我们以后自定义层需要知道的,需要知道registry是一个map,存储的就是字符串以及对应的以函数指针形式存储的Creator类型的函数,而注册都会在cpp中进行,以后详解。

common.hpp,是一些与io有关的函数与变量,cpu与gpu模式设定变量Brew mode_;函数set_mode,setDevice,以及与随机数有关的函数变量shared_ptr<RNG>random_generator_;

03 datatransform.hpp&cpp

这是很重要的一个文件,当我们自定义数据层的时候会用到,它的作用就是从磁盘中读取数据塞进caffe定义的变量内存中。从它的头文件就可以看出,它依赖于blob,common,以及caffe.pb.h

#include "caffe/blob.hpp"
#include "caffe/common.hpp"
#include "caffe/proto/caffe.pb.h"

caffe.pb.h中就包含了需要序列化的变量。

datatransform.hpp中的变量如下:

shared_ptr<Caffe::RNG> rng_;
Phase phase_;
Blob<Dtype> data_mean_;
vector<Dtype> mean_values_;

可见存储了常见的mean_value。

datatransform.hpp中的的核心是重载的transform函数,它可以按照不同的输入来载入数据,我们平常在caffe内部做的随机crop,flip等等操作都在这里完成,具体大家可以去研究源码,静下心看非常简单。

void Transform(const vector<Datum> &datum_vector,Blob<Dtype>* transformed_blob);
void Transform(const vector<cv::Mat> & mat_vector,Blob<Dtype>*
transformed_blob);
void Transform(const cv::Mat& cv_img,Blob<Dtype>* transformed_blob);

04 filler.hpp

它没有对应的cpp,所有实现都在hpp中,因为很简单,它就是对权重初始化的,其中包含,constantfiller,Gaussianfiller,XavierFiller,MSRAFiller等等,相信大家都比较熟了。

05 solver.hpp

这就是caffe 迭代求解优化的函数定义,其中重要变量loss就在这里,这就是训练caffe时显示出的loss的来源

vector<Dtype> losses_;
Dtype smoothed_loss_;
SolverParameter param_;

迭代优化的函数,

virtual void Solve(const char* resume_file = NULL);
inline void Solve(const string resume_file) {Solve(resume_file.c_str()); }
void Step(int iters);

06 layer.hpp

这就是一个层的定义了,想必大家很有兴趣,那具体都有什么呢?

我们首先看变量,

LayerParameter layer_param_;
vector<Dtype> loss_;

然后看重要函数

LayerSetUp,用于layer初始化,一般是定义一些shape,初始化一些变量。

virtual void LayerSetUp(constvector<Blob<Dtype>*>& bottom, constvector<Blob<Dtype>*>&

Forward,Backward的cpu和gpu版本,除了数据层等少量层外始终成对存在的前向和反向函数,forward是基于bottom计算top,backward则是基于top计算bottom,很好理解。

virtual void Forward_cpu(constvector<Blob<Dtype>*>& bottom, constvector<Blob<Dtype>*>& top) = 0;
virtual void Forward_gpu(constvector<Blob<Dtype>*>& bottom, constvector<Blob<Dtype>*>& top) {
  Fackward_cpu(bottom,top);
}
virtual void Backward_cpu(constvector<Blob<Dtype>*>& top,
const vector<bool>& propagate_down, constvector<Blob<Dtype>*>& bottom) = 0;
virtual void Backward_gpu(constvector<Blob<Dtype>*>& top, const vector<bool>&propagate_down, const vector<Blob<Dtype>*>&bottom) {
  Backward_cpu(top, propagate_down, bottom);
}

07 net.hpp

这是最大的一个hpp了,也是最高层的,就是整个网络的定义。

看看重要变量:

vector<shared_ptr<Layer<Dtype> > > layers_;
vector<string> layer_names_;

layers_就是所有层,layer_names_;存储了名字,以后在我们inference的时候会需要经常用到。

vector<float> params_lr_;
vector<bool> has_params_lr_;

上面是每一层学习率的参数,在我们想要固定某些层不让其学习,或者调整不同层的学习率时,会非常重要。其实还有很多重要变量如,

vector<Dtype> blob_loss_weights_;
Phase phase_;

都是经常接触的,不一一描述了大家自己看代码。

下面是一个重载的重要函数,

void CopyTrainedLayersFrom(const
NetParameter& param);
void CopyTrainedLayersFrom(const string
trained_filename);
void CopyTrainedLayersFromBinaryProto(conststring
trained_filename);
void CopyTrainedLayersFromHDF5(const string
trained_filename);

它是重要的初始化网络的方法,可以实现不同形式输入的初始化,在inference时会经常使用的。

好了,第一次基础就这么多,并没有非常细致的讲述而只是对重要内容进行介绍,在开始下面的文章之前,一定要熟读上面的这些hpp和对应cpp文件,对它有什么是什么,熟练于胸。

同时,在我的知乎专栏也会开始同步更新这个模块,欢迎来交流

https://zhuanlan.zhihu.com/c_151876233

注:部分图片来自网络

—END—

打一个小广告,我在gitchat开设了一些课程和chat,欢迎交流。

感谢各位看官的耐心阅读,不足之处希望多多指教。后续内容将会不定期奉上,欢迎大家关注有三公众号 有三AI

【caffe解读】 caffe从数学公式到代码实现1-导论相关推荐

  1. [caffe解读] caffe从数学公式到代码实现5-caffe中的卷积

    今天要讲的就是跟卷积相关的一些layer了 im2col_layer.cpp base_conv_layer.cpp conv_layer.cpp deconv_layer.cpp inner_pro ...

  2. [caffe解读] caffe从数学公式到代码实现4-认识caffe自带的7大loss

    本节说caffe中常见loss的推导,具体包含下面的cpp. multinomial_logistic_loss_layer.cpp 01 multinomial_logistic_loss_laye ...

  3. [caffe解读] caffe从数学公式到代码实现3-shape相关类

    接着上一篇说,本篇开始读layers下面的一些与blob shape有关的layer,比如flatten_layer.cpp等,具体包括的在下面: flatten_layer.cpp conv与dec ...

  4. [caffe解读] caffe从数学公式到代码实现2-基础函数类

    接着上一篇,本篇就开始读layers下面的cpp,先看一下layers下面都有哪些cpp. absval_layer.cpp 其中,下面这些layer是不需要反向传播的,大部分都是io类,我们就不讲了 ...

  5. [caffe解读] caffe从数学公式到代码实现1-导论

    新板块说明 今天开一个新板块,目标是死磕现有的几大机器学习框架的代码,给想入门的小白们一些帮助. 作为一个在图像行业战斗了几年的程序员,深知入门一个框架,和真的能用好一个框架是有很大的区别的,而要想走 ...

  6. 【caffe解读】 caffe从数学公式到代码实现3-shape相关类

    文章首发于微信公众号<与有三学AI> [caffe解读] caffe从数学公式到代码实现3-shape相关类 接着上一篇说,本篇开始读layers下面的一些与blob shape有关的la ...

  7. 【caffe解读】 caffe从数学公式到代码实现4-认识caffe自带的7大loss

    文章首发于微信公众号<与有三学AI> [caffe解读] caffe从数学公式到代码实现4-认识caffe自带的7大lossz 本节说caffe中常见loss的推导,具体包含下面的cpp. ...

  8. 【caffe解读】 caffe从数学公式到代码实现5-caffe中的卷积

    文章首发于微信公众号<与有三学AI> [caffe解读] caffe从数学公式到代码实现5-caffe中的卷积 今天要讲的就是跟卷积相关的一些layer了 im2col_layer.cpp ...

  9. 【caffe解读】 caffe从数学公式到代码实现2-基础函数类

    文章首发于微信公众号<与有三学AI> [caffe解读] caffe从数学公式到代码实现2-基础函数类 接着上一篇,本篇就开始读layers下面的cpp,先看一下layers下面都有哪些c ...

最新文章

  1. 掌握ConstraintLayout(十)按比例设置视图大小
  2. 自加计数器c语言程序,计数器 加1 C语言 程序.doc
  3. 将HTML导出生成word文档
  4. Android Studio 小技巧/快捷键 合集
  5. java 怎么快速找到实现类_JAVA懒开发:FreeMarker快速实现类的增删改查接口
  6. Nginx的location区块的作用及设置
  7. 电视看板实现原理_电脑显示器如何改装成电视机?详细改装方法,修电脑师傅告诉你...
  8. 开发工作中平常 能用到的 Git 常用命令
  9. 浮点数赋值给整数_初学者专题:变量和赋值
  10. 【LeetCode笔记】剑指 Offer 20. 表示数值的字符串(Java、字符串)
  11. pandas series 判断是否包含某个值
  12. 怎样将树的中序遍历的数输入到一个数组中_二叉搜索树的后序遍历序列(剑指offer第三十一天)...
  13. 绝不误人子弟!零基础应该选择学习Java、PHP,还是前端?
  14. 邓奶奶坐轮椅泪别袁爷爷
  15. ubuntu16.04 nvidia gtx1060 驱动安装
  16. 技术分享:用JS实现的3D海浪涌动特效
  17. QGIS基本功| 6 图层进阶(三)- 快速美化图层数据
  18. bt5使用教程----渗透方面
  19. 冲破百亿天花板,木浪云用云和智能突破备份边界
  20. 大数据分析练习-第八届泰迪杯A题-基于数据挖掘的上市公司高送转预测

热门文章

  1. Eclipse中各种文件【默认编码格式设置】,防止乱码等问题
  2. cppan 命令_逐步解說:在命令列上編譯原生 C++ 程式
  3. Spring Cloud(八)使用Zipkin进行分布式链路跟踪
  4. python类的动态方法是什么_如何在python中为类动态创建类方法
  5. centos7点击桌面图标无反应_【问题帖】电脑不显示桌面图标和任务栏,只显示鼠标光标咋办?...
  6. 已经搭载华为鸿蒙,阿尔法S或将搭载华为鸿蒙OS , 4月17极狐带来真相!
  7. 五款软件快速解决网络故障问题
  8. 2022 年第一场云原生技术实践营开启报名
  9. 参与 Apache 顶级开源项目的 N 种方式,Apache Dubbo Samples SIG 成立!
  10. Fluid 进入 CNCF Sandbox,加速大数据和 AI 应用拥抱云原生