原文:http://blog.csdn.net/zhaocj/article/details/50536385

一、原理

AdaBoost(Adaptive Boosting,自适应提升)算法是由来自AT&T实验室的Freund和Schapire于1995年首次提出,该算法解决了早期Boosting算法的一些实际执行难题,而且该算法可以作为一种从一系列弱分类器中产生一个强分类器的通用方法。正由于AdaBoost算法的优异性能,Freund和Schapire因此获得了2003年度的哥德尔奖(Gödel Prize,该奖是在理论计算机科学领域中最负盛名的奖项之一)。

假设我们有一个集合{(x1, y1),(x2,y2), …, (xN,yN)},每一个数据项xi是一个表示事物特征的矢量,yi是一个与其相对应的分类yi∈{-1, 1},即xi要么属于-1,要么属于1。AdaBoost算法通过M次迭代得到了一个弱分类器集合{k1,k2,…, kM},对于每一个数据项xi来说,每个弱分类器都会给出一个分类结果来,即km(xi)∈{-1, 1}。这M个弱分类器通过某种线性组合(式1所示)就得到了一个强分类器Cm,这样我们就可以通过Cm来判断一个新的数据项xk是属于-1,还是1。这就是一个训练的过程。

在进行了第m-1次迭代后,我们可以把这m-1个弱分类器进行线性组合,所得到的强分类器为:

(1)

式中,αk的权值,并且m > 1。当进行第m次迭代时,AdaBoost就通过增加一个弱分类器的方式扩展成另一个的强分类器:

(2)

只有使Cm的分类结果强于Cm-1,算法迭代才有意义。那么如何能够使Cm的性能优于Cm-1呢?这就由增加的那个第m个弱分类器km及其它的权值αm来决定。我们用所有数据项xi的指数损失的总和来定义Cm的误差E,从而判断kmαm是否为最优,即:

(3)

 ,wi(m)表示在第m-1次迭代后,对训练数据项xi所分配的权重,而在第1次迭代时,所使用的权重为1,即wi(1) = 1。那么,上式可以重写为:

(4)

我们可以把上式拆分成两项:

(5)

式中,yi=km(xi)的意思是对xi来说,第m次迭代得到的弱分类器km的分类结果与其实际的分类y相同,要么都等于-1,要么都等于1,即分类正确,所以它们的乘积一定等于1,即yi km(xi)= 1;而yikm(xi)的意思是对xi来说,第m次迭代得到的弱分类器km的分类结果与其实际的分类y不相同,其中一个如果等于-1,那么另一个一定等于1,即分类错误,所以它们的乘积一定等于-1,即yi km(xi)= -1。所以式5中的前一项表示的是对所有y等于km的那些数据项xi的误差求和;而第二项表示的是对所有y不等于km的那些数据项xi的误差求和。我们又可以把式5写出如下形式:

(6)

从上式我们可以看出,如果αm一定的话,强分类器Cm的误差大小完全取决于第二项中的 的大小,也就是取决于该次迭代中被分类错误的那些权值 的大小。

为了使误差E最小,我们需要对式5进行求导:

(7)

令上式等于0,则权值αm为:

(8)

表示误差率,其值为:

(9)

则式8为:

(10)

经过以上分析,我们导出了AdaBoost算法:在每次迭代中,我们选择使 为最小的分类器km,并得到误差率 (式9),应用该误差率 我们又得到了权值αm(式10),则最终强分类器就由Cm-1提升为Cm=Cm-1 +αmkm。而在每次迭代后,得到的每个训练样本数据的权值wi(m+1)为:

(11)

需要说明的是,权值仍然可以按照前面介绍的 方法计算,但式11更简单,在应用迭代时效率更高。

基于以上的分析,我们给出AdaBoost的计算步骤:

1、设有n个样本x1, …,xn,它们所希望得到的输出(即分类)为y1, …,yny∈{-1, 1};

2、初始化每个样本的权值 ,它们都为

3、进行迭代:m = 1, …, M

①找到使误差率 最小的弱分类器km(x),并得到(式9);

②计算km(x)的权值αm(式10);

③得到新的强分类器Cm(x)(式2);

④更新每个样本的权值wi(m+1)(式11);

⑤对权值wi(m+1)进行归一化处理,使∑iwi(m+1)= 1;

4、得到最终的强分类器

(12)

从式12可以看出,强分类器是由权值αm和弱分类器km(x)决定的。权值αm由式10计算得到,而弱分类器可以用上一篇文章介绍的决策树的方法得到,那种最简单的、每个中间节点只能被分叉为左、右两个分支(stumps)的决策树就足以完成对弱分类器的设计。也就是说,每一个弱分类器就是一个决策树,而该决策树是由加权后的样本构建而成,由于每次迭代的权值wi(m)不同,所以每次迭代所构建的决策树也是不同的。当要应用AdaBoost预测样本x时,只要把该样本带入不同的决策树(即弱分类器)进行预测即可,预测的结果就是km(x),然后应用式12把不同的决策树的预测结果进行加权和,最后判断其符号。OpenCV就是采用的这种方法。当用决策树的形式的时候,权值αm的计算公式为:

(13)

而每个训练样本数据的权值wi(m+1)则为:

(14)

AdaBoost算法可分为DiscreteAdaboost,Real AdaBoost,LogitBoost和Gentle AdaBoost。前面我们给出的是Discrete Adaboost算法的原理和计算步骤。虽然这四种算法的基本结构相似的,但彼此之间还是有一些差异。Discrete AdaBoost的每个弱分类的输出结果是1或-1,在组成强分类器的过程中,这种离散形式的弱分类器就略显粗糙。而Real Adaboost的每个弱分类器输出是该样本属于某一类的概率,即弱分类器km是通过一个对数函数将0-1的概率值映射到实数域,sign(km)给出的是一个分类,而|km|给出的就是一个置信度的度量。Real Adaboost的迭代过程为:

①基于每个样本的权值wi(m),拟合一个分类概率估计pm(x)=P(y=1|x)∈[0,1],它表示样本属于分类结果为1的概率;

②得到该次迭代的弱分类器km(x):

(15)

③更新权值wi(m+1)

(16)

④归一化权值使∑iwi(m+1)= 1。

则最终的强分类器C为:

(17)

LogitBoost算法是逻辑回归技术在AdaBoost的应用,弱分类器的选取并不是基于分类结果yi,而是基于加权最小二乘法。设迭代之前强分类器C0(x) = 0,每个训练样本数据的概率估计p0(xi) = 0.5,则LogitBoost算法的迭代过程为:

①计算工作响应zi(m)

(18)

式中

(19)

②计算权值wi(m)

(20)

③应用权值wi(m),基于从zi(m)xi的加权最小二乘法回归方法,拟合弱分类器km(x);

④更新pm(xi):

(21)

⑤更新强分类器

(22)

最终的强分类器为式17。

Gentle AdaBoost算法与LogitBoost算法相似,但参数的选择上更简单。弱分类器km(x)是由基于权值wi(m)的从yixi的加权最小二乘法的回归拟合得到。每次迭代得到强分类器Cm(x)和权值分别wi(m+1)为:

(23)

(24)

这里的权值仍然需要进行归一化处理。强分类器仍然为式17。

OpenCV实现了上述四种类型的AdaBoost,并且弱分类器都是采用CART决策树的方法,其中DiscreteAdaboost和Real AdaBoost应用的是分类树,因为它们的分类结果是类的形式,而LogitBoost和Gentle AdaBoost应用的是回归树,因为它们的分类结果是数值的形式。

二、源码分析

下面我们就给出OpenCV的源码分析。

我们先看构建Boosting的参数:

[cpp] view plaincopy print?
  1. CvBoostParams::CvBoostParams()
  2. {
  3. boost_type = CvBoost::REAL;
  4. weak_count = 100;
  5. weight_trim_rate = 0.95;
  6. cv_folds = 0;
  7. max_depth = 1;
  8. }
CvBoostParams::CvBoostParams()
{boost_type = CvBoost::REAL;weak_count = 100;weight_trim_rate = 0.95;cv_folds = 0;max_depth = 1;
}
[cpp] view plaincopy print?
  1. CvBoostParams::CvBoostParams( int _boost_type, int _weak_count,
  2. double _weight_trim_rate, int _max_depth,
  3. bool _use_surrogates, const float* _priors )
  4. {
  5. boost_type = _boost_type;
  6. weak_count = _weak_count;
  7. weight_trim_rate = _weight_trim_rate;
  8. split_criteria = CvBoost::DEFAULT;    //分叉准则,即用什么方法计算决策树节点的纯度
  9. /*****************************
  10. CvBoost::DEFAULT为特定的Boosting算法选择默认系数
  11. CvBoost::GINI使用基尼指数,这是Real AdaBoost的默认方法,也可以被用于Discrete Adaboost
  12. CvBoost::MISCLASS使用错误分类率,这是Discrete Adaboost的默认方法,也可以被用于Real AdaBoost
  13. CvBoost::SQERR使用最小二乘准则,这是LogitBoost和Gentle AdaBoost的默认及唯一方法
  14. ******************************/
  15. cv_folds = 0;    //表示构建决策树时,不执行剪枝操作
  16. max_depth = _max_depth;
  17. use_surrogates = _use_surrogates;
  18. priors = _priors;
  19. }
CvBoostParams::CvBoostParams( int _boost_type, int _weak_count,double _weight_trim_rate, int _max_depth,bool _use_surrogates, const float* _priors )
{boost_type = _boost_type;weak_count = _weak_count;weight_trim_rate = _weight_trim_rate;split_criteria = CvBoost::DEFAULT;    //分叉准则,即用什么方法计算决策树节点的纯度
/*****************************
CvBoost::DEFAULT为特定的Boosting算法选择默认系数
CvBoost::GINI使用基尼指数,这是Real AdaBoost的默认方法,也可以被用于Discrete Adaboost
CvBoost::MISCLASS使用错误分类率,这是Discrete Adaboost的默认方法,也可以被用于Real AdaBoost
CvBoost::SQERR使用最小二乘准则,这是LogitBoost和Gentle AdaBoost的默认及唯一方法
******************************/cv_folds = 0;    //表示构建决策树时,不执行剪枝操作max_depth = _max_depth;use_surrogates = _use_surrogates;priors = _priors;
}

其中参数的含义为:

boost_type表示Boosting算法的类型,可以是CvBoost::DISCRETE、CvBoost::REAL、CvBoost::LOGIT或CvBoost::GENTLE这4类中的任意一个,OpenCV推荐使用GentleAdaBoost或Real AdaBoost算法

_weak_count表示弱分类器的数量,即迭代的次数

_weight_trim_rate表示裁剪率,在0~1之间,默认值为0.95,在迭代过程中,那些归一化后的样本权值wi(m)小于该裁剪率的样本将不进入下次迭代

_max_depth表示构建决策树的最大深度

_use_surrogates表示在构建决策树时,是否使用替代分叉属性

_priors表示样本的先验概率

[cpp] view plaincopy print?
  1. CvBoost类的两个构造函数:
  2. CvBoost::CvBoost( const Mat& _train_data, int _tflag,
  3. const Mat& _responses, const Mat& _var_idx,
  4. const Mat& _sample_idx, const Mat& _var_type,
  5. const Mat& _missing_mask,
  6. CvBoostParams _params )
  7. //_train_data训练的样本数据
  8. //_tflag训练数据的特征属性类型,如果为CV_ROW_SAMPLE,表示样本是以行的形式储存的,即_train_data矩阵的每一行为一个样本(或特征矢量);如果为CV_COL_SAMPLE,表示样本是以列的形式储存的
  9. //_responses分类的结果,即分类的响应值
  10. //_var_idx标识感兴趣的特征属性,即真正用于训练的那些特征属性,该值的形式与_sample_idx变量相似
  11. //_sample_idx标识感兴趣的样本,即真正用于训练的样本,该值必须是一维矩阵的形式,即矢量的形式,并且类型必须是8UC1、8SU1或者32SC1。如果为8UC1或8SU1,则该值的含义是用掩码的形式表示对应的样本,即0表示不感兴趣的样本,其他数为感兴趣的样本,因此矢量的元素数量必须与训练样本数据_train_data的样本数一致;如果为32SC1,则该值的含义是那些感兴趣的样本的索引,而不感兴趣的样本的索引不在该矢量中出现,因此该矢量的元素数量可以小于或等于_train_data的样本数
  12. //_var_type特征属性的形式,是类的形式还是数值的形式,用掩码的形式表现对应特征属性的形式,0表示为数值的形式,1表示为类的形式。该值必须是一维矩阵,并且元素的数量必须是真正用于训练的那些特征属性的数量加1,多余的一个元素表示的是响应值的形式,即是分类树还是回归树
  13. //_missing_mask缺失的特征属性,用掩码的形式表现对应的特征属性,0表示没有缺失,而且必须与_train_data的矩阵尺寸大小一致
  14. //_params为构建Boosting的参数
  15. {
  16. // CvSeq* weak,用于保存决策树,即最终的强分类器
  17. weak = 0;
  18. // CvDTreeTrainData* data,所训练的样本数据
  19. data = 0;
  20. // const char* default_model_name,该机器学习的模型名称
  21. default_model_name = "my_boost_tree";
  22. //所有变量的类型都为CvMat*
  23. // active_vars表示那些对决策树的分叉起到作用的特征属性的索引值,该索引值是只相对于参与训练决策树的那些特征属性
  24. // active_vars_abs表示那些对决策树的分叉起到作用的特征属性的索引值,但与active_vars变量不同,该索引值是针对所有的特征属性
  25. // orig_response训练样本的原始响应值,即样本的分类,为-1或1
  26. // sum_response弱分类器线性组合后的样本输出分类,即强分类器的分类结果
  27. // weak_eval:弱分类器的分类评估结果,即弱分类器的响应值
  28. // subsample_mask训练样本集的掩码集,即每一个样本都有一个掩码,当该值为0时,该样本被去掉,训练的时候不使用该样本
  29. //weights每个训练样本数据的权值,即wi(m)
  30. // subtree_weights每个决策树所应用的样本权值,它的值虽然也是wi(m),但样本的顺序与weights不同,即subtree_weights针对的是具体决策树
  31. active_vars = active_vars_abs = orig_response = sum_response = weak_eval =
  32. subsample_mask = weights = subtree_weights = 0;
  33. //AdaBoost训练
  34. train( _train_data, _tflag, _responses, _var_idx, _sample_idx,
  35. _var_type, _missing_mask, _params );
  36. }
CvBoost类的两个构造函数:
CvBoost::CvBoost( const Mat& _train_data, int _tflag,const Mat& _responses, const Mat& _var_idx,const Mat& _sample_idx, const Mat& _var_type,const Mat& _missing_mask,CvBoostParams _params )
//_train_data训练的样本数据
//_tflag训练数据的特征属性类型,如果为CV_ROW_SAMPLE,表示样本是以行的形式储存的,即_train_data矩阵的每一行为一个样本(或特征矢量);如果为CV_COL_SAMPLE,表示样本是以列的形式储存的
//_responses分类的结果,即分类的响应值
//_var_idx标识感兴趣的特征属性,即真正用于训练的那些特征属性,该值的形式与_sample_idx变量相似
//_sample_idx标识感兴趣的样本,即真正用于训练的样本,该值必须是一维矩阵的形式,即矢量的形式,并且类型必须是8UC1、8SU1或者32SC1。如果为8UC1或8SU1,则该值的含义是用掩码的形式表示对应的样本,即0表示不感兴趣的样本,其他数为感兴趣的样本,因此矢量的元素数量必须与训练样本数据_train_data的样本数一致;如果为32SC1,则该值的含义是那些感兴趣的样本的索引,而不感兴趣的样本的索引不在该矢量中出现,因此该矢量的元素数量可以小于或等于_train_data的样本数
//_var_type特征属性的形式,是类的形式还是数值的形式,用掩码的形式表现对应特征属性的形式,0表示为数值的形式,1表示为类的形式。该值必须是一维矩阵,并且元素的数量必须是真正用于训练的那些特征属性的数量加1,多余的一个元素表示的是响应值的形式,即是分类树还是回归树
//_missing_mask缺失的特征属性,用掩码的形式表现对应的特征属性,0表示没有缺失,而且必须与_train_data的矩阵尺寸大小一致
//_params为构建Boosting的参数
{// CvSeq* weak,用于保存决策树,即最终的强分类器weak = 0;// CvDTreeTrainData* data,所训练的样本数据data = 0;// const char* default_model_name,该机器学习的模型名称default_model_name = "my_boost_tree";//所有变量的类型都为CvMat*// active_vars表示那些对决策树的分叉起到作用的特征属性的索引值,该索引值是只相对于参与训练决策树的那些特征属性// active_vars_abs表示那些对决策树的分叉起到作用的特征属性的索引值,但与active_vars变量不同,该索引值是针对所有的特征属性// orig_response训练样本的原始响应值,即样本的分类,为-1或1// sum_response弱分类器线性组合后的样本输出分类,即强分类器的分类结果// weak_eval:弱分类器的分类评估结果,即弱分类器的响应值// subsample_mask训练样本集的掩码集,即每一个样本都有一个掩码,当该值为0时,该样本被去掉,训练的时候不使用该样本//weights每个训练样本数据的权值,即wi(m)// subtree_weights每个决策树所应用的样本权值,它的值虽然也是wi(m),但样本的顺序与weights不同,即subtree_weights针对的是具体决策树active_vars = active_vars_abs = orig_response = sum_response = weak_eval =subsample_mask = weights = subtree_weights = 0;//AdaBoost训练train( _train_data, _tflag, _responses, _var_idx, _sample_idx,_var_type, _missing_mask, _params );
}
[cpp] view plaincopy print?
  1. CvBoost::CvBoost()
  2. {
  3. data = 0;
  4. weak = 0;
  5. default_model_name = "my_boost_tree";
  6. active_vars = active_vars_abs = orig_response = sum_response = weak_eval =
  7. subsample_mask = weights = subtree_weights = 0;
  8. have_active_cat_vars = have_subsample = false;
  9. clear();    //清空一些参数
  10. }
CvBoost::CvBoost()
{data = 0;weak = 0;default_model_name = "my_boost_tree";active_vars = active_vars_abs = orig_response = sum_response = weak_eval =subsample_mask = weights = subtree_weights = 0;have_active_cat_vars = have_subsample = false;clear();    //清空一些参数
}

两个train函数:

[cpp] view plaincopy print?
  1. bool CvBoost::train( CvMLData* _data,    //训练样本数据
  2. CvBoostParams _params,    //构建Boosting的参数
  3. bool update )
  4. //update表示是更新分类器,还是重新创建分类器,默认是false,表示重新创建
  5. {
  6. bool result = false;
  7. CV_FUNCNAME( "CvBoost::train" );
  8. __BEGIN__;
  9. //从_data变量中提取各类数据
  10. const CvMat* values = _data->get_values();
  11. const CvMat* response = _data->get_responses();
  12. const CvMat* missing = _data->get_missing();
  13. const CvMat* var_types = _data->get_var_types();
  14. const CvMat* train_sidx = _data->get_train_sample_idx();
  15. const CvMat* var_idx = _data->get_var_idx();
  16. //调用另一个train函数
  17. CV_CALL( result = train( values, CV_ROW_SAMPLE, response, var_idx,
  18. train_sidx, var_types, missing, _params, update ) );
  19. __END__;
  20. return result;
  21. }
  22. bool
  23. CvBoost::train( const CvMat* _train_data, int _tflag,
  24. const CvMat* _responses, const CvMat* _var_idx,
  25. const CvMat* _sample_idx, const CvMat* _var_type,
  26. const CvMat* _missing_mask,
  27. CvBoostParams _params, bool _update )
  28. {
  29. bool ok = false;    //算法训练正确与否的标识变量
  30. //定义一段内存空间
  31. CvMemStorage* storage = 0;
  32. CV_FUNCNAME( "CvBoost::train" );
  33. __BEGIN__;
  34. int i;
  35. //调用CvBoost::set_params()函数,设置并判断Boosting参数的正确性
  36. set_params( _params );
  37. //释放active_vars和active_vars_abs矩阵变量
  38. cvReleaseMat( &active_vars );
  39. cvReleaseMat( &active_vars_abs );
  40. if( !_update || !data )    //需要重新建立分类器,或者没有训练样本数据
  41. {
  42. //调用CvBoost::clear()函数,清空一些参数
  43. clear();
  44. //实例化CvDTreeTrainData类,并通过set_data函数设置决策树的训练样本数据,倒数第二个参数表示是否共享决策树,最后一个参数表示是否可以添加分类标签,该参数实现了把决策树中用于交叉验证的子集空间用于存储每个决策树的样本权值的目的
  45. data = new CvDTreeTrainData( _train_data, _tflag, _responses, _var_idx,
  46. _sample_idx, _var_type, _missing_mask, _params, true, true );
  47. //确保Boosting只能用于两类问题
  48. if( data->get_num_classes() != 2 )
  49. CV_ERROR( CV_StsNotImplemented,
  50. "Boosted trees can only be used for 2-class classification." );
  51. //创建一块内存空间,用于存储决策树weak
  52. CV_CALL( storage = cvCreateMemStorage() );
  53. //为AdaBoost创建一个序列
  54. weak = cvCreateSeq( 0, sizeof(CvSeq), sizeof(CvBoostTree*), storage );
  55. storage = 0;
  56. }
  57. else    //否则,为训练样本数据赋值
  58. {
  59. data->set_data( _train_data, _tflag, _responses, _var_idx,
  60. _sample_idx, _var_type, _missing_mask, _params, true, true, true );
  61. }
  62. //如果AdaBoost算法的类型为Logit AdaBoost或Gentle AdaBoost,则生成一个样本响应值的副本
  63. if ( (_params.boost_type == LOGIT) || (_params.boost_type == GENTLE) )
  64. data->do_responses_copy();
  65. //这里是第一次调用CvBoost::update_weights()函数,因此它的作用是初始化权值,该函数在后面有详细的介绍
  66. update_weights( 0 );
  67. //执行AdaBoost算法,进行M次迭代
  68. for( i = 0; i < params.weak_count; i++ )
  69. {
  70. //定义一个弱分类器,它是用决策树的方法得到的
  71. CvBoostTree* tree = new CvBoostTree;
  72. //用决策树的方法训练得到一个弱分类器,如果训练失败,则退出迭代循环,CvBoostTree类中的train函数在后面给出详细的介绍,其中参数subsample_mask表示样本数据的掩码,如果样本数据相应位的值为1,则表示该样本可用,如果为0,则不可用
  73. if( !tree->train( data, subsample_mask, this ) )
  74. {
  75. delete tree;    //删除该弱分类器
  76. break;    //退出循环
  77. }
  78. //cvCheckArr( get_weak_response());    //检查该弱分类器的输出响应
  79. //把得到的弱分类器tree添加进强分类器weak队列中
  80. cvSeqPush( weak, &tree );
  81. //更新权值,以备下次迭代循环之用
  82. update_weights( tree );
  83. //裁剪去掉那些权值wi(m+1)太小的训练样本数据
  84. trim_weights();
  85. //计算样本中没有被置1的数量,如果为零,则说明下次迭代将没有训练样本
  86. if( cvCountNonZero(subsample_mask) == 0 )
  87. break;    //退出迭代
  88. }
  89. if(weak->total > 0)    //得到了若干个弱分类器
  90. {
  91. //计算active_vars和condensed_idx变量,这两个变量在预测时要用到,该函数的详细介绍在后面
  92. get_active_vars(); // recompute active_vars* maps and condensed_idx's in the splits.
  93. data->is_classifier = true;    //重新赋值
  94. data->free_train_data();    //释放一些矩阵变量
  95. ok = true;    //标识变量
  96. }
  97. else    //没有得到弱分类器
  98. clear();    //清空一些参数
  99. __END__;
  100. //得到了Boosting分类器,返回true,否则返回false
  101. return ok;
  102. }
bool CvBoost::train( CvMLData* _data,    //训练样本数据CvBoostParams _params,    //构建Boosting的参数bool update )
//update表示是更新分类器,还是重新创建分类器,默认是false,表示重新创建
{bool result = false;CV_FUNCNAME( "CvBoost::train" );__BEGIN__;//从_data变量中提取各类数据const CvMat* values = _data->get_values();const CvMat* response = _data->get_responses();const CvMat* missing = _data->get_missing();const CvMat* var_types = _data->get_var_types();const CvMat* train_sidx = _data->get_train_sample_idx();const CvMat* var_idx = _data->get_var_idx();//调用另一个train函数CV_CALL( result = train( values, CV_ROW_SAMPLE, response, var_idx,train_sidx, var_types, missing, _params, update ) );__END__;return result;
}bool
CvBoost::train( const CvMat* _train_data, int _tflag,const CvMat* _responses, const CvMat* _var_idx,const CvMat* _sample_idx, const CvMat* _var_type,const CvMat* _missing_mask,CvBoostParams _params, bool _update )
{bool ok = false;    //算法训练正确与否的标识变量//定义一段内存空间CvMemStorage* storage = 0;CV_FUNCNAME( "CvBoost::train" );__BEGIN__;int i;//调用CvBoost::set_params()函数,设置并判断Boosting参数的正确性set_params( _params );//释放active_vars和active_vars_abs矩阵变量cvReleaseMat( &active_vars );cvReleaseMat( &active_vars_abs );if( !_update || !data )    //需要重新建立分类器,或者没有训练样本数据{//调用CvBoost::clear()函数,清空一些参数clear();//实例化CvDTreeTrainData类,并通过set_data函数设置决策树的训练样本数据,倒数第二个参数表示是否共享决策树,最后一个参数表示是否可以添加分类标签,该参数实现了把决策树中用于交叉验证的子集空间用于存储每个决策树的样本权值的目的data = new CvDTreeTrainData( _train_data, _tflag, _responses, _var_idx,_sample_idx, _var_type, _missing_mask, _params, true, true );//确保Boosting只能用于两类问题if( data->get_num_classes() != 2 )CV_ERROR( CV_StsNotImplemented,"Boosted trees can only be used for 2-class classification." );//创建一块内存空间,用于存储决策树weakCV_CALL( storage = cvCreateMemStorage() );//为AdaBoost创建一个序列weak = cvCreateSeq( 0, sizeof(CvSeq), sizeof(CvBoostTree*), storage );storage = 0;}else    //否则,为训练样本数据赋值{data->set_data( _train_data, _tflag, _responses, _var_idx,_sample_idx, _var_type, _missing_mask, _params, true, true, true );}//如果AdaBoost算法的类型为Logit AdaBoost或Gentle AdaBoost,则生成一个样本响应值的副本if ( (_params.boost_type == LOGIT) || (_params.boost_type == GENTLE) )data->do_responses_copy();//这里是第一次调用CvBoost::update_weights()函数,因此它的作用是初始化权值,该函数在后面有详细的介绍update_weights( 0 );//执行AdaBoost算法,进行M次迭代for( i = 0; i < params.weak_count; i++ ){//定义一个弱分类器,它是用决策树的方法得到的CvBoostTree* tree = new CvBoostTree;//用决策树的方法训练得到一个弱分类器,如果训练失败,则退出迭代循环,CvBoostTree类中的train函数在后面给出详细的介绍,其中参数subsample_mask表示样本数据的掩码,如果样本数据相应位的值为1,则表示该样本可用,如果为0,则不可用if( !tree->train( data, subsample_mask, this ) ){delete tree;    //删除该弱分类器break;    //退出循环}//cvCheckArr( get_weak_response());    //检查该弱分类器的输出响应//把得到的弱分类器tree添加进强分类器weak队列中cvSeqPush( weak, &tree );//更新权值,以备下次迭代循环之用update_weights( tree );//裁剪去掉那些权值wi(m+1)太小的训练样本数据trim_weights();//计算样本中没有被置1的数量,如果为零,则说明下次迭代将没有训练样本if( cvCountNonZero(subsample_mask) == 0 )break;    //退出迭代}if(weak->total > 0)    //得到了若干个弱分类器{//计算active_vars和condensed_idx变量,这两个变量在预测时要用到,该函数的详细介绍在后面get_active_vars(); // recompute active_vars* maps and condensed_idx's in the splits.data->is_classifier = true;    //重新赋值data->free_train_data();    //释放一些矩阵变量ok = true;    //标识变量}else    //没有得到弱分类器clear();    //清空一些参数__END__;//得到了Boosting分类器,返回true,否则返回falsereturn ok;
}

更新权值函数,当要初始化权值时,参数tree为0,表示此时还没有弱分类器:

[cpp] view plaincopy print?
  1. void
  2. CvBoost::update_weights( CvBoostTree* tree ) {
  3. double initial_weights[2] = { 1, 1 };    //该变量只有在初始化权值时用到
  4. update_weights_impl( tree, initial_weights );
  5. }
void
CvBoost::update_weights( CvBoostTree* tree ) {double initial_weights[2] = { 1, 1 };    //该变量只有在初始化权值时用到update_weights_impl( tree, initial_weights );
}

更新权值的核心函数:

[cpp] view plaincopy print?
  1. void
  2. CvBoost::update_weights_impl( CvBoostTree* tree, double initial_weights[2] )
  3. {
  4. CV_FUNCNAME( "CvBoost::update_weights_impl" );
  5. __BEGIN__;
  6. //n表示训练样本的数量
  7. int i, n = data->sample_count;
  8. double sumw = 0.;    //表示权值的和,权值归一化时要用
  9. int step = 0;
  10. float* fdata = 0;
  11. int *sample_idx_buf;
  12. const int* sample_idx = 0;
  13. cv::AutoBuffer<uchar> inn_buf;
  14. //根据AdaBoost类型的不同,定义不同大小的缓存,Discrete和Real时为0,LogitBoost和Gentle时为所有训练样本的数据长度,存储着样本响应值的副本
  15. size_t _buf_size = (params.boost_type == LOGIT) || (params.boost_type == GENTLE) ? (size_t)(data->sample_count)*sizeof(int) : 0;
  16. if( !tree )    //初始化权值,因为此时还没有弱分类器
  17. _buf_size += n*sizeof(int);    //增加_buf_size的大小,增加的长度为所有训练样本的数据长度,存储着样本响应值
  18. else    //训练样本的迭代过程中
  19. {
  20. //如果发生了样本裁剪,则_buf_size的增加长度为没有被裁剪掉的样本数据长度,即此次迭代中真正用到的那些样本的数据长度,存储的内容为该次迭代的训练样本数据的响应值
  21. if( have_subsample )
  22. _buf_size += data->get_length_subbuf()*(sizeof(float)+sizeof(uchar));
  23. }
  24. //为inn_buf分配_buf_size大小的内存空间
  25. inn_buf.allocate(_buf_size);
  26. // cur_buf_pos指向inn_buf的空间的首地址
  27. uchar* cur_buf_pos = (uchar*)inn_buf;
  28. //如果是LogitBoost和Gentle类型
  29. if ( (params.boost_type == LOGIT) || (params.boost_type == GENTLE) )
  30. {
  31. //得到步长
  32. step = CV_IS_MAT_CONT(data->responses_copy->type) ?
  33. 1 : data->responses_copy->step / CV_ELEM_SIZE(data->responses_copy->type);
  34. fdata = data->responses_copy->data.fl;    //指向样本响应值的副本
  35. sample_idx_buf = (int*)cur_buf_pos;    //指向inn_buf空间
  36. // cur_buf_pos指向此次迭代训练的样本数据的首地址
  37. cur_buf_pos = (uchar*)(sample_idx_buf + data->sample_count);
  38. //得到训练样本序列索引
  39. sample_idx = data->get_sample_indices( data->data_root, sample_idx_buf );
  40. }
  41. // dtree_data_buf指向训练数据的内存首地址,训练数据是以矩阵的形式进行存储的
  42. CvMat* dtree_data_buf = data->buf;
  43. // length_buf_row表示当前训练样本的数量,因为并不是所有的样本都用于本次迭代,有一些样本被剪切掉了
  44. size_t length_buf_row = data->get_length_subbuf();
  45. //进入if的条件是在第一次迭代之前,即还没有弱分类器的时候,它的作用是初始化一些变量和参数
  46. if( !tree ) // before training the first tree, initialize weights and other parameters
  47. {
  48. // class_labels_buf表示分类结果,即响应值
  49. int* class_labels_buf = (int*)cur_buf_pos;
  50. // cur_buf_pos指向另一块内存空间
  51. cur_buf_pos = (uchar*)(class_labels_buf + n);
  52. //得到训练样本的响应值,也就是样本的分类结果
  53. const int* class_labels = data->get_class_labels(data->data_root, class_labels_buf);
  54. // in case of logitboost and gentle adaboost each weak tree is a regression tree,
  55. // so we need to convert class labels to floating-point values
  56. //由于LogitBoost和Gentle需要浮点型的数据,构建它们的弱分类器的决策树是回归树,所以需要重新定义一些变量,因为这些变量在初始化时都是整型的
  57. //w0用于初始化权值wi(1)
  58. double w0 = 1./n;
  59. // p[2] = { 1, 1 },表示两类问题的先验概率
  60. double p[2] = { initial_weights[0], initial_weights[1] };
  61. //释放、重新分配一些矩阵
  62. cvReleaseMat( &orig_response );
  63. cvReleaseMat( &sum_response );
  64. cvReleaseMat( &weak_eval );
  65. cvReleaseMat( &subsample_mask );
  66. cvReleaseMat( &weights );
  67. cvReleaseMat( &subtree_weights );
  68. //重新定义一些矩阵
  69. CV_CALL( orig_response = cvCreateMat( 1, n, CV_32S ));
  70. CV_CALL( weak_eval = cvCreateMat( 1, n, CV_64F ));
  71. CV_CALL( subsample_mask = cvCreateMat( 1, n, CV_8U ));
  72. CV_CALL( weights = cvCreateMat( 1, n, CV_64F ));
  73. CV_CALL( subtree_weights = cvCreateMat( 1, n + 2, CV_64F ));
  74. //如果在设置Boosting参数的时候设置了_priors值,并且AdaBoost算法为Discrete Adaboost或Real AdaBoost,则表示样本属性有先验概率,即have_priors为true,则需要根据训练样本的数量计算先验概率,具体内容见上一篇关于决策树的介绍
  75. if( data->have_priors )
  76. {
  77. // compute weight scale for each class from their prior probabilities
  78. //根据_priors值计算两类问题的两个分类结果的先验概率
  79. int c1 = 0;
  80. //样本的分类class_labels,即响应值,只能为0或者为1
  81. for( i = 0; i < n; i++ )
  82. c1 += class_labels[i];    //统计响应值为1的样本数量
  83. //响应值为0的先验概率
  84. p[0] = data->priors->data.db[0]*(c1 < n ? 1./(n - c1) : 0.);
  85. //响应值为1的先验概率
  86. p[1] = data->priors->data.db[1]*(c1 > 0 ? 1./c1 : 0.);
  87. //归一化p[0]和p[1]
  88. p[0] /= p[0] + p[1];
  89. p[1] = 1. - p[0];
  90. }
  91. if (data->is_buf_16u)    //训练样本数量小于65536个,即可以用一个unsigned short数据类型表示该数量
  92. {
  93. // data->get_cv_labels函数访问的就是labels指向的空间,表示全体样本索引与构建决策树的样本索引的映射关系
  94. unsigned short* labels = (unsigned short*)(dtree_data_buf->data.s + data->data_root->buf_idx*length_buf_row +
  95. data->data_root->offset + (data->work_var_count-1)*data->sample_count);
  96. //遍历所有样本数据
  97. for( i = 0; i < n; i++ )
  98. {
  99. // save original categorical responses {0,1}, convert them to {-1,1}
  100. //原始数据的响应值为0或1,我们要把它转换为-1或1的形式
  101. // 0 × 2 – 1 = -1;1 × 2 - 1 = 1
  102. orig_response->data.i[i] = class_labels[i]*2 - 1;
  103. // make all the samples active at start.
  104. // later, in trim_weights() deactivate/reactive again some, if need
  105. //第一次开始训练的时候,所有样本数据都应该被使用,所以样本对应的掩码都为1,表示可以使用,而在训练迭代的过程中,也许会有一些样本通过trim_weights()函数被裁剪掉,这时该样本的掩码就要为0
  106. subsample_mask->data.ptr[i] = (uchar)1;
  107. // make all the initial weights the same.
  108. //初始化每个样本数据的权值,即步骤2。class_labels[i]不是为0就是为1,而在没有先验分类概率的情况下p[0]和p[1]都为1,即前面原理分析中步骤2的每个样本数据的权值为1/n;而在有先验分类概率的情况下,每个样本数据的权值还要根据响应值用先验概率p[0]或p[1]再乘以1/n
  109. weights->data.db[i] = w0*p[class_labels[i]];
  110. // set the labels to find (from within weak tree learning proc)
  111. // the particular sample weight, and where to store the response.
  112. //顺序存储样本的索引值,即得到一种映射关系
  113. labels[i] = (unsigned short)i;
  114. }
  115. }
  116. else    //样本数据大于65536个,则需要用一个int数据类型表示
  117. {
  118. int* labels = dtree_data_buf->data.i + data->data_root->buf_idx*length_buf_row +
  119. data->data_root->offset + (data->work_var_count-1)*data->sample_count;
  120. for( i = 0; i < n; i++ )
  121. {
  122. // save original categorical responses {0,1}, convert them to {-1,1}
  123. orig_response->data.i[i] = class_labels[i]*2 - 1;
  124. // make all the samples active at start.
  125. // later, in trim_weights() deactivate/reactive again some, if need
  126. subsample_mask->data.ptr[i] = (uchar)1;
  127. // make all the initial weights the same.
  128. weights->data.db[i] = w0*p[class_labels[i]];
  129. // set the labels to find (from within weak tree learning proc)
  130. // the particular sample weight, and where to store the response.
  131. labels[i] = i;
  132. }
  133. }
  134. if( params.boost_type == LOGIT )    //LogitBoost类型
  135. {
  136. CV_CALL( sum_response = cvCreateMat( 1, n, CV_64F ));    //定义矩阵
  137. //遍历所有样本,初始化变量
  138. for( i = 0; i < n; i++ )
  139. {
  140. sum_response->data.db[i] = 0;    //清零
  141. //如果样本的响应值为1,则该样本对应的响应值副本为2;如果响应值不为1,则为-2
  142. fdata[sample_idx[i]*step] = orig_response->data.i[i] > 0 ? 2.f : -2.f;
  143. }
  144. // in case of logitboost each weak tree is a regression tree.
  145. // the target function values are recalculated for each of the trees
  146. data->is_classifier = false;    // LogitBoost类型应用的是回归树
  147. }
  148. else if( params.boost_type == GENTLE )    // Gentle AdaBoost类型
  149. {
  150. //遍历所有样本,初始化变量
  151. for( i = 0; i < n; i++ )
  152. //样本的响应值副本的值与原始响应值一致
  153. fdata[sample_idx[i]*step] = (float)orig_response->data.i[i];
  154. data->is_classifier = false;    // Gentle AdaBoost类型应用的是回归树
  155. }
  156. }
  157. else    //真正进入循环迭代,更新权值的过程
  158. {
  159. // at this moment, for all the samples that participated in the training of the most
  160. // recent weak classifier we know the responses. For other samples we need to compute them
  161. //在上一次迭代中,如果利用的裁剪后的样本数据,说明有一些样本被裁剪掉而没有它们的弱分类器(即决策树)的响应值,但在后更新权值时,是需要所有的训练样本数据,因此这里我们通过构建好的决策树来预测这些裁剪掉的样本,从而得到它们的响应值
  162. if( have_subsample )    //有训练样本被掩码裁剪掉
  163. {
  164. // values表示需要预测的样本数据
  165. float* values = (float*)cur_buf_pos;
  166. // values空间的长度为本次迭代训练样本的实际长度
  167. cur_buf_pos = (uchar*)(values + data->get_length_subbuf());
  168. uchar* missing = cur_buf_pos;    //missing表示样本缺失特征属性的掩码
  169. // cur_buf_pos再次指向一段内存空间
  170. cur_buf_pos = missing + data->get_length_subbuf() * (size_t)CV_ELEM_SIZE(data->buf->type);
  171. CvMat _sample, _mask;
  172. // invert the subsample mask
  173. //保留的样本掩码为1,裁剪掉的为0,现在反转掩码,即保留的为0,裁剪掉的为1
  174. cvXorS( subsample_mask, cvScalar(1.), subsample_mask );
  175. //得到裁剪掉的样本数据
  176. data->get_vectors( subsample_mask, values, missing, 0 );
  177. //定义矩阵
  178. _sample = cvMat( 1, data->var_count, CV_32F );    //表示裁剪掉的样本
  179. _mask = cvMat( 1, data->var_count, CV_8U );    //表示对应样本所缺失的特征
  180. // run tree through all the non-processed samples
  181. //遍历所有样本,但只处理那些被裁剪掉的样本
  182. for( i = 0; i < n; i++ )
  183. if( subsample_mask->data.ptr[i] )    //被裁剪掉的样本数据
  184. {
  185. _sample.data.fl = values;    //赋值
  186. _mask.data.ptr = missing;    //赋值
  187. values += _sample.cols;    //指向下一个样本
  188. missing += _mask.cols;    //指向下一个样本
  189. //通过预测得到被裁剪掉的样本的弱分类器的响应值
  190. weak_eval->data.db[i] = tree->predict( &_sample, &_mask, true )->value;
  191. }
  192. }
  193. // now update weights and other parameters for each type of boosting
  194. //根据不同类型更新权值
  195. if( params.boost_type == DISCRETE )    //Discrete Adaboost类型
  196. {
  197. // Discrete AdaBoost:
  198. //   weak_eval[i] (=f(x_i)) is in {-1,1}
  199. //   err = sum(w_i*(f(x_i) != y_i))/sum(w_i)
  200. //   C = log((1-err)/err)
  201. //   w_i *= exp(C*(f(x_i) != y_i))
  202. double C, err = 0.;
  203. double scale[] = { 1., 0. };
  204. //遍历所有样本数据
  205. for( i = 0; i < n; i++ )
  206. {
  207. //得到上次迭代后每个训练样本数据的权值,即wi(m)
  208. double w = weights->data.db[i];
  209. //权值之和,即式9中的分母部分
  210. sumw += w;
  211. //分类器分类错误的那些训练样本数据的权值之和,即式9中的分子部分
  212. // weak_eval表示该次迭代的弱分类器的分类结果,orig_response为实际的分类结果,weak_eval->data.db[i] != orig_response->data.i[i]的作用是判断分类是否正确,正确为0,错误为1
  213. err += w*(weak_eval->data.db[i] != orig_response->data.i[i]);
  214. }
  215. //得到误差率,即式9
  216. if( sumw != 0 )
  217. err /= sumw;
  218. //log_ratio(x)为内嵌函数,该函数的输出为ln[x/(1-x)]
  219. //C和err的值为式13,C表示该次迭代得到的弱分类器的权值,即αm
  220. C = err = -log_ratio( err );
  221. // scale[1]为式10中括号内的部分,该值肯定大于1,而此时scale[0]仍然为1
  222. scale[1] = exp(err);
  223. sumw = 0;
  224. //再次遍历训练样本数据,更新样本权值wi(m+1)
  225. for( i = 0; i < n; i++ )
  226. {
  227. //分类正确为scale[0],分类错误为scale[1],即式14
  228. double w = weights->data.db[i]*
  229. scale[weak_eval->data.db[i] != orig_response->data.i[i]];
  230. sumw += w;    //权值之和,后面归一化要用
  231. weights->data.db[i] = w;    //赋值
  232. }
  233. //为弱分类器的权值赋值,即该决策树tree的每节点值都乘以C,也就是得到了式12的αmkm(x)
  234. tree->scale( C );
  235. }
  236. else if( params.boost_type == REAL )    // Real AdaBoost类型
  237. {
  238. // Real AdaBoost:
  239. //   weak_eval[i] = f(x_i) = 0.5*log(p(x_i)/(1-p(x_i))), p(x_i)=P(y=1|x_i)
  240. //   w_i *= exp(-y_i*f(x_i))
  241. //weak_eval变量在计算前为弱分类器km(x),但在遍历循环后被赋予新的含义,为式16中的e指数中的指数部分
  242. for( i = 0; i < n; i++ )
  243. weak_eval->data.db[i] *= -orig_response->data.i[i];
  244. //计算式16的e指数
  245. cvExp( weak_eval, weak_eval );
  246. //遍历训练样本数据,更新权值wi(m)
  247. for( i = 0; i < n; i++ )
  248. {
  249. //式16,得到权值wi(m+1)
  250. double w = weights->data.db[i]*weak_eval->data.db[i];
  251. sumw += w;    //权值之和,后面归一化要用
  252. weights->data.db[i] = w;    //赋值
  253. }
  254. }
  255. else if( params.boost_type == LOGIT )     //LogitBoost类型
  256. {
  257. // LogitBoost:
  258. //   weak_eval[i] = f(x_i) in [-z_max,z_max]
  259. //   sum_response = F(x_i).
  260. //   F(x_i) += 0.5*f(x_i)
  261. //   p(x_i) = exp(F(x_i))/(exp(F(x_i)) + exp(-F(x_i))=1/(1+exp(-2*F(x_i)))
  262. //   reuse weak_eval: weak_eval[i] <- p(x_i)
  263. //   w_i = p(x_i)*1(1 - p(x_i))
  264. //   z_i = ((y_i+1)/2 - p(x_i))/(p(x_i)*(1 - p(x_i)))
  265. //   store z_i to the data->data_root as the new target responses
  266. const double lb_weight_thresh = FLT_EPSILON;
  267. const double lb_z_max = 10.;
  268. /*float* responses_buf = data->get_resp_float_buf();
  269. const float* responses = 0;
  270. data->get_ord_responses(data->data_root, responses_buf, &responses);*/
  271. /*if( weak->total == 7 )
  272. putchar('*');*/
  273. for( i = 0; i < n; i++ )
  274. {
  275. //式22
  276. double s = sum_response->data.db[i] + 0.5*weak_eval->data.db[i];
  277. sum_response->data.db[i] = s;    //赋值
  278. weak_eval->data.db[i] = -2*s;    //该变量式21要用
  279. }
  280. //计算e指数
  281. cvExp( weak_eval, weak_eval );
  282. //遍历所有训练样本数据
  283. for( i = 0; i < n; i++ )
  284. {
  285. //式21,得到更新后的pm(xi)
  286. double p = 1./(1. + weak_eval->data.db[i]);
  287. //w为权值wi(m),式20
  288. double w = p*(1 - p), z;
  289. //确保w是具有一定意义的正数
  290. w = MAX( w, lb_weight_thresh );
  291. weights->data.db[i] = w;    //权值赋值
  292. sumw += w;    //权值之和,后面归一化要用
  293. //计算工作响应zi(m)
  294. if( orig_response->data.i[i] > 0 )    //样本数据属于y = 1的一类
  295. {
  296. z = 1./p;
  297. fdata[sample_idx[i]*step] = (float)MIN(z, lb_z_max);
  298. }
  299. else    //样本数据属于y = -1的一类
  300. {
  301. z = 1./(1-p);
  302. fdata[sample_idx[i]*step] = (float)-MIN(z, lb_z_max);
  303. }
  304. }
  305. }
  306. else    //Gentle AdaBoost类型
  307. {
  308. // Gentle AdaBoost:
  309. //   weak_eval[i] = f(x_i) in [-1,1]
  310. //   w_i *= exp(-y_i*f(x_i))
  311. //确保为Gentle AdaBoost类型
  312. assert( params.boost_type == GENTLE );
  313. //计算式24中e指数中的指数部分
  314. for( i = 0; i < n; i++ )
  315. weak_eval->data.db[i] *= -orig_response->data.i[i];
  316. //计算式24中的e指数
  317. cvExp( weak_eval, weak_eval );
  318. for( i = 0; i < n; i++ )
  319. {
  320. //式24,更新权值
  321. double w = weights->data.db[i] * weak_eval->data.db[i];
  322. weights->data.db[i] = w;    //赋值
  323. sumw += w;    //权值之和,后面归一化要用
  324. }
  325. }
  326. }
  327. // renormalize weights
  328. //归一化权值wi(m+1)
  329. if( sumw > FLT_EPSILON )
  330. {
  331. sumw = 1./sumw;
  332. for( i = 0; i < n; ++i )
  333. weights->data.db[i] *= sumw;
  334. }
  335. __END__;
  336. }
void
CvBoost::update_weights_impl( CvBoostTree* tree, double initial_weights[2] )
{CV_FUNCNAME( "CvBoost::update_weights_impl" );__BEGIN__;//n表示训练样本的数量int i, n = data->sample_count;double sumw = 0.;    //表示权值的和,权值归一化时要用int step = 0;float* fdata = 0;int *sample_idx_buf;const int* sample_idx = 0;cv::AutoBuffer<uchar> inn_buf;//根据AdaBoost类型的不同,定义不同大小的缓存,Discrete和Real时为0,LogitBoost和Gentle时为所有训练样本的数据长度,存储着样本响应值的副本size_t _buf_size = (params.boost_type == LOGIT) || (params.boost_type == GENTLE) ? (size_t)(data->sample_count)*sizeof(int) : 0;if( !tree )    //初始化权值,因为此时还没有弱分类器_buf_size += n*sizeof(int);    //增加_buf_size的大小,增加的长度为所有训练样本的数据长度,存储着样本响应值else    //训练样本的迭代过程中{//如果发生了样本裁剪,则_buf_size的增加长度为没有被裁剪掉的样本数据长度,即此次迭代中真正用到的那些样本的数据长度,存储的内容为该次迭代的训练样本数据的响应值if( have_subsample )_buf_size += data->get_length_subbuf()*(sizeof(float)+sizeof(uchar));}//为inn_buf分配_buf_size大小的内存空间inn_buf.allocate(_buf_size);// cur_buf_pos指向inn_buf的空间的首地址uchar* cur_buf_pos = (uchar*)inn_buf;//如果是LogitBoost和Gentle类型if ( (params.boost_type == LOGIT) || (params.boost_type == GENTLE) ){//得到步长step = CV_IS_MAT_CONT(data->responses_copy->type) ?1 : data->responses_copy->step / CV_ELEM_SIZE(data->responses_copy->type);fdata = data->responses_copy->data.fl;    //指向样本响应值的副本sample_idx_buf = (int*)cur_buf_pos;    //指向inn_buf空间// cur_buf_pos指向此次迭代训练的样本数据的首地址cur_buf_pos = (uchar*)(sample_idx_buf + data->sample_count);//得到训练样本序列索引sample_idx = data->get_sample_indices( data->data_root, sample_idx_buf );}// dtree_data_buf指向训练数据的内存首地址,训练数据是以矩阵的形式进行存储的CvMat* dtree_data_buf = data->buf;// length_buf_row表示当前训练样本的数量,因为并不是所有的样本都用于本次迭代,有一些样本被剪切掉了size_t length_buf_row = data->get_length_subbuf();//进入if的条件是在第一次迭代之前,即还没有弱分类器的时候,它的作用是初始化一些变量和参数if( !tree ) // before training the first tree, initialize weights and other parameters{ // class_labels_buf表示分类结果,即响应值int* class_labels_buf = (int*)cur_buf_pos;// cur_buf_pos指向另一块内存空间cur_buf_pos = (uchar*)(class_labels_buf + n);//得到训练样本的响应值,也就是样本的分类结果const int* class_labels = data->get_class_labels(data->data_root, class_labels_buf);// in case of logitboost and gentle adaboost each weak tree is a regression tree,// so we need to convert class labels to floating-point values//由于LogitBoost和Gentle需要浮点型的数据,构建它们的弱分类器的决策树是回归树,所以需要重新定义一些变量,因为这些变量在初始化时都是整型的//w0用于初始化权值wi(1)double w0 = 1./n;// p[2] = { 1, 1 },表示两类问题的先验概率double p[2] = { initial_weights[0], initial_weights[1] };//释放、重新分配一些矩阵cvReleaseMat( &orig_response );cvReleaseMat( &sum_response );cvReleaseMat( &weak_eval );cvReleaseMat( &subsample_mask );cvReleaseMat( &weights );cvReleaseMat( &subtree_weights );//重新定义一些矩阵CV_CALL( orig_response = cvCreateMat( 1, n, CV_32S ));CV_CALL( weak_eval = cvCreateMat( 1, n, CV_64F ));CV_CALL( subsample_mask = cvCreateMat( 1, n, CV_8U ));CV_CALL( weights = cvCreateMat( 1, n, CV_64F ));CV_CALL( subtree_weights = cvCreateMat( 1, n + 2, CV_64F ));//如果在设置Boosting参数的时候设置了_priors值,并且AdaBoost算法为Discrete Adaboost或Real AdaBoost,则表示样本属性有先验概率,即have_priors为true,则需要根据训练样本的数量计算先验概率,具体内容见上一篇关于决策树的介绍if( data->have_priors ){// compute weight scale for each class from their prior probabilities//根据_priors值计算两类问题的两个分类结果的先验概率int c1 = 0;//样本的分类class_labels,即响应值,只能为0或者为1 for( i = 0; i < n; i++ )c1 += class_labels[i];    //统计响应值为1的样本数量//响应值为0的先验概率p[0] = data->priors->data.db[0]*(c1 < n ? 1./(n - c1) : 0.);//响应值为1的先验概率p[1] = data->priors->data.db[1]*(c1 > 0 ? 1./c1 : 0.);//归一化p[0]和p[1]p[0] /= p[0] + p[1];p[1] = 1. - p[0];}if (data->is_buf_16u)    //训练样本数量小于65536个,即可以用一个unsigned short数据类型表示该数量{// data->get_cv_labels函数访问的就是labels指向的空间,表示全体样本索引与构建决策树的样本索引的映射关系unsigned short* labels = (unsigned short*)(dtree_data_buf->data.s + data->data_root->buf_idx*length_buf_row +data->data_root->offset + (data->work_var_count-1)*data->sample_count);//遍历所有样本数据for( i = 0; i < n; i++ ){// save original categorical responses {0,1}, convert them to {-1,1}//原始数据的响应值为0或1,我们要把它转换为-1或1的形式// 0 × 2 – 1 = -1;1 × 2 - 1 = 1orig_response->data.i[i] = class_labels[i]*2 - 1;// make all the samples active at start.// later, in trim_weights() deactivate/reactive again some, if need//第一次开始训练的时候,所有样本数据都应该被使用,所以样本对应的掩码都为1,表示可以使用,而在训练迭代的过程中,也许会有一些样本通过trim_weights()函数被裁剪掉,这时该样本的掩码就要为0subsample_mask->data.ptr[i] = (uchar)1;// make all the initial weights the same.//初始化每个样本数据的权值,即步骤2。class_labels[i]不是为0就是为1,而在没有先验分类概率的情况下p[0]和p[1]都为1,即前面原理分析中步骤2的每个样本数据的权值为1/n;而在有先验分类概率的情况下,每个样本数据的权值还要根据响应值用先验概率p[0]或p[1]再乘以1/nweights->data.db[i] = w0*p[class_labels[i]];// set the labels to find (from within weak tree learning proc)// the particular sample weight, and where to store the response.//顺序存储样本的索引值,即得到一种映射关系labels[i] = (unsigned short)i;}}else    //样本数据大于65536个,则需要用一个int数据类型表示{int* labels = dtree_data_buf->data.i + data->data_root->buf_idx*length_buf_row +data->data_root->offset + (data->work_var_count-1)*data->sample_count;for( i = 0; i < n; i++ ){// save original categorical responses {0,1}, convert them to {-1,1}orig_response->data.i[i] = class_labels[i]*2 - 1;// make all the samples active at start.// later, in trim_weights() deactivate/reactive again some, if needsubsample_mask->data.ptr[i] = (uchar)1;// make all the initial weights the same.weights->data.db[i] = w0*p[class_labels[i]];// set the labels to find (from within weak tree learning proc)// the particular sample weight, and where to store the response.labels[i] = i;}}if( params.boost_type == LOGIT )    //LogitBoost类型{CV_CALL( sum_response = cvCreateMat( 1, n, CV_64F ));    //定义矩阵//遍历所有样本,初始化变量for( i = 0; i < n; i++ ){sum_response->data.db[i] = 0;    //清零//如果样本的响应值为1,则该样本对应的响应值副本为2;如果响应值不为1,则为-2fdata[sample_idx[i]*step] = orig_response->data.i[i] > 0 ? 2.f : -2.f;}// in case of logitboost each weak tree is a regression tree.// the target function values are recalculated for each of the treesdata->is_classifier = false;    // LogitBoost类型应用的是回归树}else if( params.boost_type == GENTLE )    // Gentle AdaBoost类型{//遍历所有样本,初始化变量for( i = 0; i < n; i++ )//样本的响应值副本的值与原始响应值一致fdata[sample_idx[i]*step] = (float)orig_response->data.i[i];data->is_classifier = false;    // Gentle AdaBoost类型应用的是回归树}}else    //真正进入循环迭代,更新权值的过程{// at this moment, for all the samples that participated in the training of the most// recent weak classifier we know the responses. For other samples we need to compute them//在上一次迭代中,如果利用的裁剪后的样本数据,说明有一些样本被裁剪掉而没有它们的弱分类器(即决策树)的响应值,但在后更新权值时,是需要所有的训练样本数据,因此这里我们通过构建好的决策树来预测这些裁剪掉的样本,从而得到它们的响应值if( have_subsample )    //有训练样本被掩码裁剪掉{// values表示需要预测的样本数据float* values = (float*)cur_buf_pos;// values空间的长度为本次迭代训练样本的实际长度cur_buf_pos = (uchar*)(values + data->get_length_subbuf());uchar* missing = cur_buf_pos;    //missing表示样本缺失特征属性的掩码// cur_buf_pos再次指向一段内存空间cur_buf_pos = missing + data->get_length_subbuf() * (size_t)CV_ELEM_SIZE(data->buf->type);CvMat _sample, _mask;// invert the subsample mask//保留的样本掩码为1,裁剪掉的为0,现在反转掩码,即保留的为0,裁剪掉的为1cvXorS( subsample_mask, cvScalar(1.), subsample_mask );//得到裁剪掉的样本数据data->get_vectors( subsample_mask, values, missing, 0 );//定义矩阵_sample = cvMat( 1, data->var_count, CV_32F );    //表示裁剪掉的样本_mask = cvMat( 1, data->var_count, CV_8U );    //表示对应样本所缺失的特征// run tree through all the non-processed samples//遍历所有样本,但只处理那些被裁剪掉的样本for( i = 0; i < n; i++ )if( subsample_mask->data.ptr[i] )    //被裁剪掉的样本数据{_sample.data.fl = values;    //赋值_mask.data.ptr = missing;    //赋值values += _sample.cols;    //指向下一个样本missing += _mask.cols;    //指向下一个样本//通过预测得到被裁剪掉的样本的弱分类器的响应值weak_eval->data.db[i] = tree->predict( &_sample, &_mask, true )->value;}}// now update weights and other parameters for each type of boosting//根据不同类型更新权值if( params.boost_type == DISCRETE )    //Discrete Adaboost类型{// Discrete AdaBoost://   weak_eval[i] (=f(x_i)) is in {-1,1}//   err = sum(w_i*(f(x_i) != y_i))/sum(w_i)//   C = log((1-err)/err)//   w_i *= exp(C*(f(x_i) != y_i))double C, err = 0.;double scale[] = { 1., 0. };//遍历所有样本数据for( i = 0; i < n; i++ ){//得到上次迭代后每个训练样本数据的权值,即wi(m)double w = weights->data.db[i];//权值之和,即式9中的分母部分sumw += w;//分类器分类错误的那些训练样本数据的权值之和,即式9中的分子部分// weak_eval表示该次迭代的弱分类器的分类结果,orig_response为实际的分类结果,weak_eval->data.db[i] != orig_response->data.i[i]的作用是判断分类是否正确,正确为0,错误为1err += w*(weak_eval->data.db[i] != orig_response->data.i[i]);}//得到误差率,即式9if( sumw != 0 )err /= sumw;//log_ratio(x)为内嵌函数,该函数的输出为ln[x/(1-x)]//C和err的值为式13,C表示该次迭代得到的弱分类器的权值,即αmC = err = -log_ratio( err );// scale[1]为式10中括号内的部分,该值肯定大于1,而此时scale[0]仍然为1scale[1] = exp(err);sumw = 0;//再次遍历训练样本数据,更新样本权值wi(m+1)for( i = 0; i < n; i++ ){//分类正确为scale[0],分类错误为scale[1],即式14double w = weights->data.db[i]*scale[weak_eval->data.db[i] != orig_response->data.i[i]];sumw += w;    //权值之和,后面归一化要用weights->data.db[i] = w;    //赋值}//为弱分类器的权值赋值,即该决策树tree的每节点值都乘以C,也就是得到了式12的αmkm(x)tree->scale( C );}else if( params.boost_type == REAL )    // Real AdaBoost类型{// Real AdaBoost://   weak_eval[i] = f(x_i) = 0.5*log(p(x_i)/(1-p(x_i))), p(x_i)=P(y=1|x_i)//   w_i *= exp(-y_i*f(x_i))//weak_eval变量在计算前为弱分类器km(x),但在遍历循环后被赋予新的含义,为式16中的e指数中的指数部分for( i = 0; i < n; i++ )weak_eval->data.db[i] *= -orig_response->data.i[i];//计算式16的e指数cvExp( weak_eval, weak_eval );//遍历训练样本数据,更新权值wi(m)for( i = 0; i < n; i++ ){//式16,得到权值wi(m+1)double w = weights->data.db[i]*weak_eval->data.db[i];sumw += w;    //权值之和,后面归一化要用weights->data.db[i] = w;    //赋值}}else if( params.boost_type == LOGIT )     //LogitBoost类型{// LogitBoost://   weak_eval[i] = f(x_i) in [-z_max,z_max]//   sum_response = F(x_i).//   F(x_i) += 0.5*f(x_i)//   p(x_i) = exp(F(x_i))/(exp(F(x_i)) + exp(-F(x_i))=1/(1+exp(-2*F(x_i)))//   reuse weak_eval: weak_eval[i] <- p(x_i)//   w_i = p(x_i)*1(1 - p(x_i))//   z_i = ((y_i+1)/2 - p(x_i))/(p(x_i)*(1 - p(x_i)))//   store z_i to the data->data_root as the new target responsesconst double lb_weight_thresh = FLT_EPSILON;const double lb_z_max = 10.;/*float* responses_buf = data->get_resp_float_buf();const float* responses = 0;data->get_ord_responses(data->data_root, responses_buf, &responses);*//*if( weak->total == 7 )putchar('*');*/for( i = 0; i < n; i++ ){//式22double s = sum_response->data.db[i] + 0.5*weak_eval->data.db[i];sum_response->data.db[i] = s;    //赋值weak_eval->data.db[i] = -2*s;    //该变量式21要用}//计算e指数cvExp( weak_eval, weak_eval );//遍历所有训练样本数据for( i = 0; i < n; i++ ){//式21,得到更新后的pm(xi)double p = 1./(1. + weak_eval->data.db[i]);//w为权值wi(m),式20double w = p*(1 - p), z;//确保w是具有一定意义的正数w = MAX( w, lb_weight_thresh );weights->data.db[i] = w;    //权值赋值sumw += w;    //权值之和,后面归一化要用//计算工作响应zi(m)if( orig_response->data.i[i] > 0 )    //样本数据属于y = 1的一类{z = 1./p;fdata[sample_idx[i]*step] = (float)MIN(z, lb_z_max);}else    //样本数据属于y = -1的一类{z = 1./(1-p);fdata[sample_idx[i]*step] = (float)-MIN(z, lb_z_max);}}}else    //Gentle AdaBoost类型{// Gentle AdaBoost://   weak_eval[i] = f(x_i) in [-1,1]//   w_i *= exp(-y_i*f(x_i))//确保为Gentle AdaBoost类型assert( params.boost_type == GENTLE );//计算式24中e指数中的指数部分for( i = 0; i < n; i++ )weak_eval->data.db[i] *= -orig_response->data.i[i];//计算式24中的e指数cvExp( weak_eval, weak_eval );for( i = 0; i < n; i++ ){//式24,更新权值double w = weights->data.db[i] * weak_eval->data.db[i];weights->data.db[i] = w;    //赋值sumw += w;    //权值之和,后面归一化要用}}}// renormalize weights//归一化权值wi(m+1)if( sumw > FLT_EPSILON ){sumw = 1./sumw;for( i = 0; i < n; ++i )weights->data.db[i] *= sumw;}__END__;
}

裁剪去掉那些权值过小的样本数据:

[cpp] view plaincopy print?
  1. void
  2. CvBoost::trim_weights()
  3. {
  4. //CV_FUNCNAME( "CvBoost::trim_weights" );
  5. __BEGIN__;
  6. //count为训练样本总数,nz_count表示裁剪以后保留下来的样本总数
  7. int i, count = data->sample_count, nz_count = 0;
  8. double sum, threshold;
  9. //裁剪率weight_trim_rate要在0和1之间
  10. if( params.weight_trim_rate <= 0. || params.weight_trim_rate >= 1. )
  11. EXIT;
  12. // use weak_eval as temporary buffer for sorted weights
  13. //样本权值weights暂时保存到weak_eval中,以便用于对其进行排序
  14. cvCopy( weights, weak_eval );
  15. //对样本权值按由小到大的顺序进行排序
  16. icvSort_64f( weak_eval->data.db, count, 0 );
  17. // as weight trimming occurs immediately after updating the weights,
  18. // where they are renormalized, we assume that the weight sum = 1.
  19. sum = 1. - params.weight_trim_rate;
  20. //由小到大遍历所有训练样本,找到裁剪率所对应的那个权值
  21. for( i = 0; i < count; i++ )
  22. {
  23. double w = weak_eval->data.db[i];
  24. if( sum <= 0 )
  25. break;
  26. sum -= w;
  27. }
  28. //得到阈值
  29. threshold = i < count ? weak_eval->data.db[i] : DBL_MAX;
  30. //再次遍历所有训练样本(这一次不是按照大小顺序遍历),确定哪些样本被裁剪掉
  31. for( i = 0; i < count; i++ )
  32. {
  33. double w = weights->data.db[i];    //得到权值
  34. //权值与阈值比较,权值大则f为1,反之f为0
  35. int f = w >= threshold;
  36. //把权值大于阈值的样本所对应的掩码为置1,反之清0
  37. subsample_mask->data.ptr[i] = (uchar)f;
  38. nz_count += f;    //计数
  39. }
  40. // nz_count < count表示有裁剪掉的样本,此时have_subsample为1,反之为0
  41. have_subsample = nz_count < count;
  42. __END__;
  43. }
void
CvBoost::trim_weights()
{//CV_FUNCNAME( "CvBoost::trim_weights" );__BEGIN__;//count为训练样本总数,nz_count表示裁剪以后保留下来的样本总数int i, count = data->sample_count, nz_count = 0;double sum, threshold;//裁剪率weight_trim_rate要在0和1之间if( params.weight_trim_rate <= 0. || params.weight_trim_rate >= 1. )EXIT;// use weak_eval as temporary buffer for sorted weights//样本权值weights暂时保存到weak_eval中,以便用于对其进行排序cvCopy( weights, weak_eval );//对样本权值按由小到大的顺序进行排序icvSort_64f( weak_eval->data.db, count, 0 );// as weight trimming occurs immediately after updating the weights,// where they are renormalized, we assume that the weight sum = 1.sum = 1. - params.weight_trim_rate;//由小到大遍历所有训练样本,找到裁剪率所对应的那个权值for( i = 0; i < count; i++ ){double w = weak_eval->data.db[i];if( sum <= 0 )break;sum -= w;}//得到阈值threshold = i < count ? weak_eval->data.db[i] : DBL_MAX;//再次遍历所有训练样本(这一次不是按照大小顺序遍历),确定哪些样本被裁剪掉for( i = 0; i < count; i++ ){double w = weights->data.db[i];    //得到权值//权值与阈值比较,权值大则f为1,反之f为0int f = w >= threshold;//把权值大于阈值的样本所对应的掩码为置1,反之清0subsample_mask->data.ptr[i] = (uchar)f;nz_count += f;    //计数}// nz_count < count表示有裁剪掉的样本,此时have_subsample为1,反之为0have_subsample = nz_count < count;__END__;
}

计算active_vars和active_vars_abs值,这两个值的含义都是记录那些对决策树的分叉起到作用的特征属性的索引值,active_vars存储的索引值是只相对于参与训练决策树的那些特征属性,而active_vars_abs存储的索引值是针对所有的特征属性,包括那些被掩码掉的特征属性

[cpp] view plaincopy print?
  1. const CvMat*
  2. CvBoost::get_active_vars( bool absolute_idx )
  3. {
  4. CvMat* mask = 0;
  5. CvMat* inv_map = 0;
  6. CvMat* result = 0;
  7. CV_FUNCNAME( "CvBoost::get_active_vars" );
  8. __BEGIN__;
  9. if( !weak )    //确保已得到分类器
  10. CV_ERROR( CV_StsError, "The boosted tree ensemble has not been trained yet" );
  11. //还没有为active_vars和active_vars_abs变量赋值
  12. if( !active_vars || !active_vars_abs )
  13. {
  14. CvSeqReader reader;
  15. int i, j, nactive_vars;
  16. CvBoostTree* wtree;
  17. const CvDTreeNode* node;
  18. assert(!active_vars && !active_vars_abs);
  19. mask = cvCreateMat( 1, data->var_count, CV_8U );
  20. inv_map = cvCreateMat( 1, data->var_count, CV_32S );
  21. cvZero( mask );    //mask矩阵清零
  22. cvSet( inv_map, cvScalar(-1) );    //inv_map矩阵赋值为-1
  23. // first pass: compute the mask of used variables
  24. //把强分类器序列weak保存到reader变量中
  25. cvStartReadSeq( weak, &reader );
  26. //遍历所有的弱分类器
  27. for( i = 0; i < weak->total; i++ )
  28. {
  29. CV_READ_SEQ_ELEM(wtree, reader);    //得到一个弱分类器,即决策树
  30. node = wtree->get_root();    //得到决策树的根节点
  31. assert( node != 0 );    //确保根节点不为零,即该决策树存在
  32. for(;;)    //遍历决策树的各个节点
  33. {
  34. const CvDTreeNode* parent;    //定义父节点
  35. for(;;)    沿着左分子向叶节点遍历
  36. {
  37. CvDTreeSplit* split = node->split;    //分叉属性
  38. //遍历该节点的所有分叉属性,包括最佳分叉属性和替代分叉属性
  39. for( ; split != 0; split = split->next )
  40. mask->data.ptr[split->var_idx] = 1;    //分叉属性相应位置1
  41. if( !node->left )    //到达了叶节点,则退出for死循环
  42. break;
  43. node = node->left;    //下一个左分支
  44. }
  45. //从叶节点沿着右分支向父节点遍历
  46. for( parent = node->parent; parent && parent->right == node;
  47. node = parent, parent = parent->parent )
  48. ;
  49. if( !parent )    //到达了根节点,则退出for死循环
  50. break;
  51. node = parent->right;    //下一个右分支
  52. }
  53. }
  54. nactive_vars = cvCountNonZero(mask);    //统计mask中非0元素的数量
  55. //if ( nactive_vars > 0 )
  56. {
  57. //定义两个矩阵
  58. active_vars = cvCreateMat( 1, nactive_vars, CV_32S );
  59. active_vars_abs = cvCreateMat( 1, nactive_vars, CV_32S );
  60. have_active_cat_vars = false;    //标识赋值
  61. //遍历所有特征属性
  62. for( i = j = 0; i < data->var_count; i++ )
  63. {
  64. if( mask->data.ptr[i] )
  65. {
  66. //赋值为特征属性的索引
  67. active_vars->data.i[j] = i;
  68. active_vars_abs->data.i[j] = data->var_idx ? data->var_idx->data.i[i] : i;
  69. // inv_map存储的形式与active_vars相反,即反映射
  70. inv_map->data.i[i] = j;
  71. //如果这些特征属性中只要有一个特征属性是类的形式,则have_active_cat_vars变量就为true
  72. if( data->var_type->data.i[i] >= 0 )
  73. have_active_cat_vars = true;
  74. j++;    //计数
  75. }
  76. }
  77. // second pass: now compute the condensed indices
  78. cvStartReadSeq( weak, &reader );
  79. for( i = 0; i < weak->total; i++ )    //再次遍历所有的弱分类器
  80. {
  81. CV_READ_SEQ_ELEM(wtree, reader);
  82. node = wtree->get_root();
  83. for(;;)    //再次遍历决策树
  84. {
  85. const CvDTreeNode* parent;
  86. for(;;)
  87. {
  88. CvDTreeSplit* split = node->split;
  89. for( ; split != 0; split = split->next )
  90. {
  91. // condensed_idx的值为该分叉属性在active_vars的索引,该索引值也是样本数据中特征属性分布排序的索引
  92. split->condensed_idx = inv_map->data.i[split->var_idx];
  93. assert( split->condensed_idx >= 0 );
  94. }
  95. if( !node->left )
  96. break;
  97. node = node->left;
  98. }
  99. for( parent = node->parent; parent && parent->right == node;
  100. node = parent, parent = parent->parent )
  101. ;
  102. if( !parent )
  103. break;
  104. node = parent->right;
  105. }
  106. }
  107. }
  108. }
  109. //行参absolute_idx为true,则该函数返回active_vars_abs,否则返回active_vars
  110. result = absolute_idx ? active_vars_abs : active_vars;
  111. __END__;
  112. cvReleaseMat( &mask );
  113. cvReleaseMat( &inv_map );
  114. return result;
  115. }
const CvMat*
CvBoost::get_active_vars( bool absolute_idx )
{CvMat* mask = 0;CvMat* inv_map = 0;CvMat* result = 0;CV_FUNCNAME( "CvBoost::get_active_vars" );__BEGIN__;if( !weak )    //确保已得到分类器CV_ERROR( CV_StsError, "The boosted tree ensemble has not been trained yet" );//还没有为active_vars和active_vars_abs变量赋值if( !active_vars || !active_vars_abs ){CvSeqReader reader;int i, j, nactive_vars;CvBoostTree* wtree;const CvDTreeNode* node;assert(!active_vars && !active_vars_abs);mask = cvCreateMat( 1, data->var_count, CV_8U );inv_map = cvCreateMat( 1, data->var_count, CV_32S );cvZero( mask );    //mask矩阵清零cvSet( inv_map, cvScalar(-1) );    //inv_map矩阵赋值为-1// first pass: compute the mask of used variables//把强分类器序列weak保存到reader变量中cvStartReadSeq( weak, &reader );//遍历所有的弱分类器for( i = 0; i < weak->total; i++ ){CV_READ_SEQ_ELEM(wtree, reader);    //得到一个弱分类器,即决策树node = wtree->get_root();    //得到决策树的根节点assert( node != 0 );    //确保根节点不为零,即该决策树存在for(;;)    //遍历决策树的各个节点{const CvDTreeNode* parent;    //定义父节点for(;;)    沿着左分子向叶节点遍历{CvDTreeSplit* split = node->split;    //分叉属性//遍历该节点的所有分叉属性,包括最佳分叉属性和替代分叉属性for( ; split != 0; split = split->next )mask->data.ptr[split->var_idx] = 1;    //分叉属性相应位置1if( !node->left )    //到达了叶节点,则退出for死循环break;node = node->left;    //下一个左分支}//从叶节点沿着右分支向父节点遍历for( parent = node->parent; parent && parent->right == node;node = parent, parent = parent->parent );if( !parent )    //到达了根节点,则退出for死循环break;node = parent->right;    //下一个右分支}}nactive_vars = cvCountNonZero(mask);    //统计mask中非0元素的数量//if ( nactive_vars > 0 ){//定义两个矩阵active_vars = cvCreateMat( 1, nactive_vars, CV_32S );active_vars_abs = cvCreateMat( 1, nactive_vars, CV_32S );have_active_cat_vars = false;    //标识赋值//遍历所有特征属性for( i = j = 0; i < data->var_count; i++ ){if( mask->data.ptr[i] ){//赋值为特征属性的索引active_vars->data.i[j] = i;active_vars_abs->data.i[j] = data->var_idx ? data->var_idx->data.i[i] : i;// inv_map存储的形式与active_vars相反,即反映射inv_map->data.i[i] = j;//如果这些特征属性中只要有一个特征属性是类的形式,则have_active_cat_vars变量就为trueif( data->var_type->data.i[i] >= 0 )have_active_cat_vars = true;j++;    //计数}}// second pass: now compute the condensed indicescvStartReadSeq( weak, &reader );for( i = 0; i < weak->total; i++ )    //再次遍历所有的弱分类器{CV_READ_SEQ_ELEM(wtree, reader);node = wtree->get_root();for(;;)    //再次遍历决策树{const CvDTreeNode* parent;for(;;){CvDTreeSplit* split = node->split;for( ; split != 0; split = split->next ){// condensed_idx的值为该分叉属性在active_vars的索引,该索引值也是样本数据中特征属性分布排序的索引split->condensed_idx = inv_map->data.i[split->var_idx];assert( split->condensed_idx >= 0 );}if( !node->left )break;node = node->left;}for( parent = node->parent; parent && parent->right == node;node = parent, parent = parent->parent );if( !parent )break;node = parent->right;}}}}//行参absolute_idx为true,则该函数返回active_vars_abs,否则返回active_varsresult = absolute_idx ? active_vars_abs : active_vars;__END__;cvReleaseMat( &mask );cvReleaseMat( &inv_map );return result;
}

CvBoostTree类中的一个train函数:

[cpp] view plaincopy print?
  1. bool
  2. CvBoostTree::train( CvDTreeTrainData* _train_data,
  3. const CvMat* _subsample_idx, CvBoost* _ensemble )
  4. {
  5. clear();
  6. ensemble = _ensemble;
  7. data = _train_data;    //样本数据
  8. data->shared = true;
  9. return do_train( _subsample_idx );
  10. }
bool
CvBoostTree::train( CvDTreeTrainData* _train_data,const CvMat* _subsample_idx, CvBoost* _ensemble )
{clear();ensemble = _ensemble;data = _train_data;    //样本数据data->shared = true;return do_train( _subsample_idx );
}

从上面的train函数可以看出,它主要是调用do_train函数,而CvBoostTree类没有do_train函数,因此train函数是调用CvBoostTree类的父类CvDTree中的do_train函数:

[cpp] view plaincopy print?
  1. bool CvDTree::do_train( const CvMat* _subsample_idx )
  2. {
  3. bool result = false;
  4. CV_FUNCNAME( "CvDTree::do_train" );
  5. __BEGIN__;
  6. //得到训练样本数据
  7. root = data->subsample_data( _subsample_idx );
  8. CV_CALL( try_split_node(root));
  9. if( root->split )
  10. {
  11. CV_Assert( root->left );
  12. CV_Assert( root->right );
  13. //用于弱分类器的决策树不需要剪枝,所以这里不会调用prune_cv函数
  14. if( data->params.cv_folds > 0 )
  15. CV_CALL( prune_cv() );
  16. if( !data->shared )
  17. data->free_train_data();
  18. result = true;
  19. }
  20. __END__;
  21. return result;
  22. }
bool CvDTree::do_train( const CvMat* _subsample_idx )
{bool result = false;CV_FUNCNAME( "CvDTree::do_train" );__BEGIN__;//得到训练样本数据root = data->subsample_data( _subsample_idx );CV_CALL( try_split_node(root));if( root->split ){CV_Assert( root->left );CV_Assert( root->right );//用于弱分类器的决策树不需要剪枝,所以这里不会调用prune_cv函数if( data->params.cv_folds > 0 )CV_CALL( prune_cv() );if( !data->shared )data->free_train_data();result = true;}__END__;return result;
}

递归调用try_split_node函数,完成决策树的构造:

[cpp] view plaincopy print?
  1. void
  2. CvBoostTree::try_split_node( CvDTreeNode* node )
  3. {
  4. //调用CvDTree::try_split_node函数
  5. CvDTree::try_split_node( node );
  6. //在构建决策树的过程中,一旦某个节点再也不能分叉,则进入下面的if语句,完成该节点内所有样本的弱分类器(即响应值)的赋值
  7. if( !node->left )
  8. {
  9. // if the node has not been split,
  10. // store the responses for the corresponding training samples
  11. //指向弱分类器的响应值
  12. double* weak_eval = ensemble->get_weak_response()->data.db;
  13. //开辟一块大小为该节点样本数据长的内存
  14. cv::AutoBuffer<int> inn_buf(node->sample_count);
  15. //labels表示该节点node内的样本在全体训练样本集中的索引
  16. const int* labels = data->get_cv_labels( node, (int*)inn_buf );
  17. int i, count = node->sample_count;    //count表示该节点的样本数
  18. //该节点的值,当该节点有多个样本是,如果是分类树,节点的值等于拥有最大数量的那个分类的响应值;如果是回归树,节点的值等于所有样本的平均响应值;当该节点只有一个样本时,节点的值就是该样本的响应值
  19. double value = node->value;
  20. //遍历该节点的所有样本,为该节点内的样本所对应的弱分类器的响应值赋值
  21. for( i = 0; i < count; i++ )
  22. weak_eval[labels[i]] = value;
  23. }
  24. }
void
CvBoostTree::try_split_node( CvDTreeNode* node )
{//调用CvDTree::try_split_node函数CvDTree::try_split_node( node );//在构建决策树的过程中,一旦某个节点再也不能分叉,则进入下面的if语句,完成该节点内所有样本的弱分类器(即响应值)的赋值if( !node->left ) {// if the node has not been split,// store the responses for the corresponding training samples//指向弱分类器的响应值double* weak_eval = ensemble->get_weak_response()->data.db;//开辟一块大小为该节点样本数据长的内存cv::AutoBuffer<int> inn_buf(node->sample_count);//labels表示该节点node内的样本在全体训练样本集中的索引const int* labels = data->get_cv_labels( node, (int*)inn_buf );int i, count = node->sample_count;    //count表示该节点的样本数//该节点的值,当该节点有多个样本是,如果是分类树,节点的值等于拥有最大数量的那个分类的响应值;如果是回归树,节点的值等于所有样本的平均响应值;当该节点只有一个样本时,节点的值就是该样本的响应值double value = node->value; //遍历该节点的所有样本,为该节点内的样本所对应的弱分类器的响应值赋值for( i = 0; i < count; i++ )weak_eval[labels[i]] = value;}
}

下面我们介绍预测函数predict:

[cpp] view plaincopy print?
  1. float
  2. CvBoost::predict( const CvMat* _sample, const CvMat* _missing,
  3. CvMat* weak_responses, CvSlice slice,
  4. bool raw_mode, bool return_sum ) const
  5. //_sample表示要预测的样本数据
  6. //_missing表示预测样本中所缺失的特征属性,该变量为掩码的形式
  7. // weak_responses表示弱分类器所对应的响应,因此它的元素个数必须与弱分类器的数量一致,默认值0,表示不使用该变量
  8. //slice表示用于预测的弱分类器的连续子集,默认值为CV_WHOLE_SEQ,表示使用所有的弱分类器
  9. // raw_mode与CvDTree::predict函数的第三个参数的含义相同,默认为false,具体请看上一篇文章
  10. // return_sum表示该函数返回值的形式,默认为false,表示返回式12或式17的值,如果该值为true,则返回式12或式17中括号内的值,即不进行符号判断
  11. {
  12. float value = -FLT_MAX;    //初始一个很大的负值
  13. CvSeqReader reader;
  14. double sum = 0;
  15. int wstep = 0;
  16. const float* sample_data;
  17. if( !weak )    //还没有强分类器
  18. CV_Error( CV_StsError, "The boosted tree ensemble has not been trained yet" );
  19. //判断输入参数_sample的正确性
  20. if( !CV_IS_MAT(_sample) || CV_MAT_TYPE(_sample->type) != CV_32FC1 ||
  21. (_sample->cols != 1 && _sample->rows != 1) ||
  22. (_sample->cols + _sample->rows - 1 != data->var_all && !raw_mode) ||
  23. (active_vars && _sample->cols + _sample->rows - 1 != active_vars->cols && raw_mode) )
  24. CV_Error( CV_StsBadArg,
  25. "the input sample must be 1d floating-point vector with the same "
  26. "number of elements as the total number of variables or "
  27. "as the number of variables used for training" );
  28. if( _missing )    //判断输入参数_missing的正确性
  29. {
  30. if( !CV_IS_MAT(_missing) || !CV_IS_MASK_ARR(_missing) ||
  31. !CV_ARE_SIZES_EQ(_missing, _sample) )
  32. CV_Error( CV_StsBadArg,
  33. "the missing data mask must be 8-bit vector of the same size as input sample" );
  34. }
  35. // weak_count为根据输入参数slice而得到的弱分类器的数量
  36. int i, weak_count = cvSliceLength( slice, weak );
  37. //确保weak_count正确
  38. if( weak_count >= weak->total )
  39. {
  40. weak_count = weak->total;
  41. slice.start_index = 0;
  42. }
  43. if( weak_responses )    //确保输入参数weak_responses的正确性
  44. {
  45. if( !CV_IS_MAT(weak_responses) ||
  46. CV_MAT_TYPE(weak_responses->type) != CV_32FC1 ||
  47. (weak_responses->cols != 1 && weak_responses->rows != 1) ||
  48. weak_responses->cols + weak_responses->rows - 1 != weak_count )
  49. CV_Error( CV_StsBadArg,
  50. "The output matrix of weak classifier responses must be valid "
  51. "floating-point vector of the same number of components as the length of input slice" );
  52. wstep = CV_IS_MAT_CONT(weak_responses->type) ? 1 : weak_responses->step/sizeof(float);
  53. }
  54. //得到active_vars变量的行,即启作用的特征属性的数量
  55. int var_count = active_vars->cols;
  56. const int* vtype = data->var_type->data.i;    //指向全体特征属性
  57. const int* cmap = data->cat_map->data.i;    //指向特征属性为类形式的映射
  58. const int* cofs = data->cat_ofs->data.i;    //表示特征属性为类形式的各个属性的偏移量
  59. cv::Mat sample = _sample;    //预测样本
  60. cv::Mat missing;    //缺失特征属性的掩码
  61. if(!_missing)
  62. missing = _missing;    //赋值
  63. // if need, preprocess the input vector
  64. //对预测样本的特征属性做规范化处理,具体内容请看我的上一篇关于决策树的文章
  65. if( !raw_mode )
  66. {
  67. int sstep, mstep = 0;
  68. const float* src_sample;
  69. const uchar* src_mask = 0;
  70. float* dst_sample;
  71. uchar* dst_mask;
  72. const int* vidx = active_vars->data.i;
  73. const int* vidx_abs = active_vars_abs->data.i;
  74. bool have_mask = _missing != 0;
  75. sample = cv::Mat(1, var_count, CV_32FC1);
  76. missing = cv::Mat(1, var_count, CV_8UC1);
  77. dst_sample = sample.ptr<float>();
  78. dst_mask = missing.ptr<uchar>();
  79. src_sample = _sample->data.fl;
  80. sstep = CV_IS_MAT_CONT(_sample->type) ? 1 : _sample->step/sizeof(src_sample[0]);
  81. if( _missing )
  82. {
  83. src_mask = _missing->data.ptr;
  84. mstep = CV_IS_MAT_CONT(_missing->type) ? 1 : _missing->step;
  85. }
  86. for( i = 0; i < var_count; i++ )
  87. {
  88. int idx = vidx[i], idx_abs = vidx_abs[i];
  89. float val = src_sample[idx_abs*sstep];
  90. int ci = vtype[idx];
  91. uchar m = src_mask ? src_mask[idx_abs*mstep] : (uchar)0;
  92. if( ci >= 0 )
  93. {
  94. int a = cofs[ci], b = (ci+1 >= data->cat_ofs->cols) ? data->cat_map->cols : cofs[ci+1],
  95. c = a;
  96. int ival = cvRound(val);
  97. if ( (ival != val) && (!m) )
  98. CV_Error( CV_StsBadArg,
  99. "one of input categorical variable is not an integer" );
  100. while( a < b )
  101. {
  102. c = (a + b) >> 1;
  103. if( ival < cmap[c] )
  104. b = c;
  105. else if( ival > cmap[c] )
  106. a = c+1;
  107. else
  108. break;
  109. }
  110. if( c < 0 || ival != cmap[c] )
  111. {
  112. m = 1;
  113. have_mask = true;
  114. }
  115. else
  116. {
  117. val = (float)(c - cofs[ci]);
  118. }
  119. }
  120. dst_sample[i] = val;
  121. dst_mask[i] = m;
  122. }
  123. if( !have_mask )
  124. missing.release();
  125. }
  126. else
  127. {
  128. if( !CV_IS_MAT_CONT(_sample->type & (_missing ? _missing->type : -1)) )
  129. CV_Error( CV_StsBadArg, "In raw mode the input vectors must be continuous" );
  130. }
  131. cvStartReadSeq( weak, &reader );    //读取各个弱分类器
  132. cvSetSeqReaderPos( &reader, slice.start_index );    //指定起始地址
  133. sample_data = sample.ptr<float>();    //预测样本数据的指针
  134. // !have_active_cat_vars表示启作用的特征属性中没有任何一个是类的形式,missing.empty()预测样本没有缺失的特征属性,!weak_responses表示该输入参数不存在
  135. if( !have_active_cat_vars && missing.empty() && !weak_responses )
  136. {
  137. //遍历所有的弱分类器
  138. for( i = 0; i < weak_count; i++ )
  139. {
  140. CvBoostTree* wtree;    //表示代表该弱分类器的决策树
  141. const CvDTreeNode* node;
  142. CV_READ_SEQ_ELEM( wtree, reader );    //提取当前的决策树
  143. node = wtree->get_root();    //得到决策树的根节点
  144. //遍历该决策树,直到到达了叶节点
  145. while( node->left )
  146. {
  147. CvDTreeSplit* split = node->split;   //节点分叉
  148. //得到该节点分叉属性在样本中特征属性排序的索引
  149. int vi = split->condensed_idx;
  150. float val = sample_data[vi];    //得到该特征属性所对应的样本值
  151. //与分叉值比较,确定方向信息
  152. int dir = val <= split->ord.c ? -1 : 1;
  153. if( split->inversed )    //方向需要反转的处理
  154. dir = -dir;
  155. //由方向信息确定下一步是向左分支遍历还是向右分支遍历
  156. node = dir < 0 ? node->left : node->right;
  157. }
  158. //累加各个弱分类器响应值,即式12或式17括号内的部分
  159. sum += node->value;
  160. }
  161. }
  162. else    //其他情况的处理
  163. {
  164. const int* avars = active_vars->data.i;    //指向active_vars变量
  165. //如果有缺失的特征属性,则m指向掩码变量missing,否则m为空
  166. const uchar* m = !missing.empty() ? missing.ptr<uchar>() : 0;
  167. // full-featured version
  168. //遍历所有的弱分类器
  169. for( i = 0; i < weak_count; i++ )
  170. {
  171. CvBoostTree* wtree;    //弱分类器,即决策树
  172. const CvDTreeNode* node;
  173. CV_READ_SEQ_ELEM( wtree, reader );    //提取当前决策树
  174. node = wtree->get_root();    //根节点
  175. //遍历该决策树,直到到达了叶节点
  176. while( node->left )
  177. {
  178. const CvDTreeSplit* split = node->split;    //得到该节点的分叉
  179. int dir = 0;
  180. //按照从最佳分叉属性到替代分叉属性的顺序遍历分叉属性,直到得到了节点的方向信息为止,
  181. for( ; !dir && split != 0; split = split->next )
  182. {
  183. //得到该节点分叉属性在样本中特征属性排序的索引
  184. int vi = split->condensed_idx;
  185. int ci = vtype[avars[vi]];    //得到分叉属性的特征属性类型
  186. float val = sample_data[vi];    //得到该特征属性所对应的样本值
  187. //如果该特征属性是缺失的特征属性,则进入下次循环
  188. if( m && m[vi] )
  189. continue;
  190. if( ci < 0 ) // ordered 特征属性是数值的形式
  191. //与分叉值比较,确定方向信息
  192. dir = val <= split->ord.c ? -1 : 1;
  193. else // categorical 特征属性是类的形式
  194. {
  195. int c = cvRound(val);    //取整
  196. //对应找到split->subset中所对应的位,从而得到方向信息
  197. dir = CV_DTREE_CAT_DIR(c, split->subset);
  198. }
  199. if( split->inversed )    //方向需要反转的处理
  200. dir = -dir;
  201. }
  202. if( !dir )    //如果方向信息还是没有得到
  203. {
  204. //该节点的哪个分支的样本数量多,方向dir就指向哪
  205. int diff = node->right->sample_count - node->left->sample_count;
  206. dir = diff < 0 ? -1 : 1;
  207. }
  208. //由方向信息确定下一步是向左分支遍历还是向右分支遍历
  209. node = dir < 0 ? node->left : node->right;
  210. }
  211. //如果定义了输入参数weak_responses,则输出弱分类器的值
  212. if( weak_responses )
  213. weak_responses->data.fl[i*wstep] = (float)node->value;
  214. //累加各个弱分类器响应值,即式12或式17括号内的部分
  215. sum += node->value;
  216. }
  217. }
  218. if( return_sum )
  219. value = (float)sum;    //直接返回式12或式17中括号内的值
  220. else
  221. {
  222. int cls_idx = sum >= 0;    //符号判断,即式12或式17的值
  223. if( raw_mode )
  224. value = (float)cls_idx;    //得到原始的数据
  225. else    //得到其所代表的数据
  226. value = (float)cmap[cofs[vtype[data->var_count]] + cls_idx];
  227. }
  228. return value;    //返回
  229. }
float
CvBoost::predict( const CvMat* _sample, const CvMat* _missing,CvMat* weak_responses, CvSlice slice,bool raw_mode, bool return_sum ) const
//_sample表示要预测的样本数据
//_missing表示预测样本中所缺失的特征属性,该变量为掩码的形式
// weak_responses表示弱分类器所对应的响应,因此它的元素个数必须与弱分类器的数量一致,默认值0,表示不使用该变量
//slice表示用于预测的弱分类器的连续子集,默认值为CV_WHOLE_SEQ,表示使用所有的弱分类器
// raw_mode与CvDTree::predict函数的第三个参数的含义相同,默认为false,具体请看上一篇文章
// return_sum表示该函数返回值的形式,默认为false,表示返回式12或式17的值,如果该值为true,则返回式12或式17中括号内的值,即不进行符号判断
{float value = -FLT_MAX;    //初始一个很大的负值CvSeqReader reader;double sum = 0;int wstep = 0;const float* sample_data;if( !weak )    //还没有强分类器CV_Error( CV_StsError, "The boosted tree ensemble has not been trained yet" );//判断输入参数_sample的正确性if( !CV_IS_MAT(_sample) || CV_MAT_TYPE(_sample->type) != CV_32FC1 ||(_sample->cols != 1 && _sample->rows != 1) ||(_sample->cols + _sample->rows - 1 != data->var_all && !raw_mode) ||(active_vars && _sample->cols + _sample->rows - 1 != active_vars->cols && raw_mode) )CV_Error( CV_StsBadArg,"the input sample must be 1d floating-point vector with the same ""number of elements as the total number of variables or ""as the number of variables used for training" );if( _missing )    //判断输入参数_missing的正确性{if( !CV_IS_MAT(_missing) || !CV_IS_MASK_ARR(_missing) ||!CV_ARE_SIZES_EQ(_missing, _sample) )CV_Error( CV_StsBadArg,"the missing data mask must be 8-bit vector of the same size as input sample" );}// weak_count为根据输入参数slice而得到的弱分类器的数量int i, weak_count = cvSliceLength( slice, weak );//确保weak_count正确if( weak_count >= weak->total ){weak_count = weak->total;slice.start_index = 0;}if( weak_responses )    //确保输入参数weak_responses的正确性{if( !CV_IS_MAT(weak_responses) ||CV_MAT_TYPE(weak_responses->type) != CV_32FC1 ||(weak_responses->cols != 1 && weak_responses->rows != 1) ||weak_responses->cols + weak_responses->rows - 1 != weak_count )CV_Error( CV_StsBadArg,"The output matrix of weak classifier responses must be valid ""floating-point vector of the same number of components as the length of input slice" );wstep = CV_IS_MAT_CONT(weak_responses->type) ? 1 : weak_responses->step/sizeof(float);}//得到active_vars变量的行,即启作用的特征属性的数量int var_count = active_vars->cols;const int* vtype = data->var_type->data.i;    //指向全体特征属性const int* cmap = data->cat_map->data.i;    //指向特征属性为类形式的映射const int* cofs = data->cat_ofs->data.i;    //表示特征属性为类形式的各个属性的偏移量cv::Mat sample = _sample;    //预测样本cv::Mat missing;    //缺失特征属性的掩码if(!_missing)missing = _missing;    //赋值// if need, preprocess the input vector//对预测样本的特征属性做规范化处理,具体内容请看我的上一篇关于决策树的文章if( !raw_mode ){int sstep, mstep = 0;const float* src_sample;const uchar* src_mask = 0;float* dst_sample;uchar* dst_mask;const int* vidx = active_vars->data.i;const int* vidx_abs = active_vars_abs->data.i;bool have_mask = _missing != 0;sample = cv::Mat(1, var_count, CV_32FC1);missing = cv::Mat(1, var_count, CV_8UC1);dst_sample = sample.ptr<float>();dst_mask = missing.ptr<uchar>();src_sample = _sample->data.fl;sstep = CV_IS_MAT_CONT(_sample->type) ? 1 : _sample->step/sizeof(src_sample[0]);if( _missing ){src_mask = _missing->data.ptr;mstep = CV_IS_MAT_CONT(_missing->type) ? 1 : _missing->step;}for( i = 0; i < var_count; i++ ){int idx = vidx[i], idx_abs = vidx_abs[i];float val = src_sample[idx_abs*sstep];int ci = vtype[idx];uchar m = src_mask ? src_mask[idx_abs*mstep] : (uchar)0;if( ci >= 0 ){int a = cofs[ci], b = (ci+1 >= data->cat_ofs->cols) ? data->cat_map->cols : cofs[ci+1],c = a;int ival = cvRound(val);if ( (ival != val) && (!m) )CV_Error( CV_StsBadArg,"one of input categorical variable is not an integer" );while( a < b ){c = (a + b) >> 1;if( ival < cmap[c] )b = c;else if( ival > cmap[c] )a = c+1;elsebreak;}if( c < 0 || ival != cmap[c] ){m = 1;have_mask = true;}else{val = (float)(c - cofs[ci]);}}dst_sample[i] = val;dst_mask[i] = m;}if( !have_mask )missing.release();}else{if( !CV_IS_MAT_CONT(_sample->type & (_missing ? _missing->type : -1)) )CV_Error( CV_StsBadArg, "In raw mode the input vectors must be continuous" );}cvStartReadSeq( weak, &reader );    //读取各个弱分类器cvSetSeqReaderPos( &reader, slice.start_index );    //指定起始地址sample_data = sample.ptr<float>();    //预测样本数据的指针// !have_active_cat_vars表示启作用的特征属性中没有任何一个是类的形式,missing.empty()预测样本没有缺失的特征属性,!weak_responses表示该输入参数不存在if( !have_active_cat_vars && missing.empty() && !weak_responses ){//遍历所有的弱分类器for( i = 0; i < weak_count; i++ ){CvBoostTree* wtree;    //表示代表该弱分类器的决策树const CvDTreeNode* node;CV_READ_SEQ_ELEM( wtree, reader );    //提取当前的决策树node = wtree->get_root();    //得到决策树的根节点//遍历该决策树,直到到达了叶节点while( node->left ){CvDTreeSplit* split = node->split;   //节点分叉//得到该节点分叉属性在样本中特征属性排序的索引int vi = split->condensed_idx;float val = sample_data[vi];    //得到该特征属性所对应的样本值//与分叉值比较,确定方向信息int dir = val <= split->ord.c ? -1 : 1;if( split->inversed )    //方向需要反转的处理dir = -dir;//由方向信息确定下一步是向左分支遍历还是向右分支遍历node = dir < 0 ? node->left : node->right;}//累加各个弱分类器响应值,即式12或式17括号内的部分sum += node->value; }}else    //其他情况的处理{const int* avars = active_vars->data.i;    //指向active_vars变量//如果有缺失的特征属性,则m指向掩码变量missing,否则m为空const uchar* m = !missing.empty() ? missing.ptr<uchar>() : 0;// full-featured version//遍历所有的弱分类器for( i = 0; i < weak_count; i++ ){CvBoostTree* wtree;    //弱分类器,即决策树const CvDTreeNode* node;CV_READ_SEQ_ELEM( wtree, reader );    //提取当前决策树node = wtree->get_root();    //根节点//遍历该决策树,直到到达了叶节点while( node->left ){const CvDTreeSplit* split = node->split;    //得到该节点的分叉int dir = 0;//按照从最佳分叉属性到替代分叉属性的顺序遍历分叉属性,直到得到了节点的方向信息为止,for( ; !dir && split != 0; split = split->next ){//得到该节点分叉属性在样本中特征属性排序的索引int vi = split->condensed_idx;int ci = vtype[avars[vi]];    //得到分叉属性的特征属性类型float val = sample_data[vi];    //得到该特征属性所对应的样本值//如果该特征属性是缺失的特征属性,则进入下次循环if( m && m[vi] )continue;if( ci < 0 ) // ordered 特征属性是数值的形式//与分叉值比较,确定方向信息dir = val <= split->ord.c ? -1 : 1;else // categorical 特征属性是类的形式{int c = cvRound(val);    //取整//对应找到split->subset中所对应的位,从而得到方向信息dir = CV_DTREE_CAT_DIR(c, split->subset);}if( split->inversed )    //方向需要反转的处理dir = -dir;}if( !dir )    //如果方向信息还是没有得到{//该节点的哪个分支的样本数量多,方向dir就指向哪int diff = node->right->sample_count - node->left->sample_count;dir = diff < 0 ? -1 : 1;}//由方向信息确定下一步是向左分支遍历还是向右分支遍历node = dir < 0 ? node->left : node->right;}//如果定义了输入参数weak_responses,则输出弱分类器的值if( weak_responses )weak_responses->data.fl[i*wstep] = (float)node->value;//累加各个弱分类器响应值,即式12或式17括号内的部分sum += node->value;}}if( return_sum )value = (float)sum;    //直接返回式12或式17中括号内的值else{int cls_idx = sum >= 0;    //符号判断,即式12或式17的值if( raw_mode )value = (float)cls_idx;    //得到原始的数据else    //得到其所代表的数据value = (float)cmap[cofs[vtype[data->var_count]] + cls_idx];}return value;    //返回
}

OpenCV是用决策树来得到弱分类器的,因此实现弱分类器的类CvBoostTree继承于构建决策树的类CvDTree,前面介绍过的CvBoostTree类内的train函数和try_split_node函数都是虚函数,它们是针对用于弱分类器设计的决策树的特殊性而重写的函数,这样的虚函数还有许多,如find_surrogate_split_ord、find_split_ord_class、calc_node_value等。对这些函数就不再详细阐述,这里主要把与CvDTree类的不同的地方说明一下,关于CvDTree类的介绍请看我的上一篇关于决策树的介绍。

1、构建弱分类器的每个样本都有权值,即wi(m),在决策树中被称为是先验概率;

2、用于衡量分类树纯度的不仅有基尼指数,还有错误分类率这种方法;

3、弱分类器只是一个用于研究两类问题的决策树,所有要相对简单一点;

4、不同的弱分类器所应用的训练样本的数量可能会不同。

三、应用实例

下面我们就给出一个具体的应用实例。

如上图所示,红色“+”的采样点的坐标为:(40,55),(35,35),(55,15),(45,25),(10,10),(15,15),(40,10),(30,15),(30,50),(100,20),(45,65),(20,35),(80,20),(90,5),(95,35),(80,65),(15,55),(25,65),(85,35),(85,55),(95,70),(105,50),(115,65),(110,25),(120,45),(15,45);蓝色“×”的采样点的坐标为:(55,30),(60,65),(95,60),(25,40),(75,45),(105,35),(65,10),(50,50),(40,35),(70,55),(80,30),(95,45),(60,20),(70,30),(65,45),(85,40)。则我们用AdaBoost算法判断新的坐标(55,25)是属于红色标注的区域还是蓝色标注的区域,程序为:

[cpp] view plaincopy print?
  1. #include "opencv2/core/core.hpp"
  2. #include "opencv2/highgui/highgui.hpp"
  3. #include "opencv2/imgproc/imgproc.hpp"
  4. #include "opencv2/ml/ml.hpp"
  5. #include <iostream>
  6. using namespace cv;
  7. using namespace std;
  8. int main( int argc, char** argv )
  9. {
  10. //训练样本
  11. float trainingData[42][2]={ {40, 55},{35, 35},{55, 15},{45, 25},{10, 10},{15, 15},{40, 10},
  12. {30, 15},{30, 50},{100, 20},{45, 65},{20, 35},{80, 20},{90, 5},
  13. {95, 35},{80, 65},{15, 55},{25, 65},{85, 35},{85, 55},{95, 70},
  14. {105, 50},{115, 65},{110, 25},{120, 45},{15, 45},
  15. {55, 30},{60, 65},{95, 60},{25, 40},{75, 45},{105, 35},{65, 10},
  16. {50, 50},{40, 35},{70, 55},{80, 30},{95, 45},{60, 20},{70, 30},
  17. {65, 45},{85, 40}   };
  18. Mat trainingDataMat(42, 2, CV_32FC1, trainingData);
  19. //训练样本的响应值
  20. float responses[42] = {'R','R','R','R','R','R','R','R','R','R','R','R','R','R','R','R',
  21. 'R','R','R','R','R','R','R','R','R','R',
  22. 'B','B','B','B','B','B','B','B','B','B','B','B','B','B','B','B' };
  23. Mat responsesMat(42, 1, CV_32FC1, responses);
  24. float priors[2] = {1, 1};    //先验概率
  25. CvBoostParams params( CvBoost::REAL, // boost_type
  26. 10, // weak_count
  27. 0.95, // weight_trim_rate
  28. 15, // max_depth
  29. false, // use_surrogates
  30. priors // priors
  31. );
  32. CvBoost boost;
  33. boost.train (   trainingDataMat,
  34. CV_ROW_SAMPLE,
  35. responsesMat,
  36. Mat(),
  37. Mat(),
  38. Mat(),
  39. Mat(),
  40. params
  41. );
  42. //预测样本
  43. float myData[2] = {55, 25};
  44. Mat myDataMat(2, 1, CV_32FC1, myData);
  45. double r = boost.predict( myDataMat );
  46. cout<<endl<<"result:  "<<(char)r<<endl;
  47. return 0;
  48. }
#include "opencv2/core/core.hpp"
#include "opencv2/highgui/highgui.hpp"
#include "opencv2/imgproc/imgproc.hpp"
#include "opencv2/ml/ml.hpp"#include <iostream>
using namespace cv;
using namespace std;int main( int argc, char** argv )
{   //训练样本float trainingData[42][2]={  {40, 55},{35, 35},{55, 15},{45, 25},{10, 10},{15, 15},{40, 10},{30, 15},{30, 50},{100, 20},{45, 65},{20, 35},{80, 20},{90, 5},{95, 35},{80, 65},{15, 55},{25, 65},{85, 35},{85, 55},{95, 70},{105, 50},{115, 65},{110, 25},{120, 45},{15, 45},{55, 30},{60, 65},{95, 60},{25, 40},{75, 45},{105, 35},{65, 10},{50, 50},{40, 35},{70, 55},{80, 30},{95, 45},{60, 20},{70, 30},{65, 45},{85, 40}  };Mat trainingDataMat(42, 2, CV_32FC1, trainingData); //训练样本的响应值float responses[42] = {'R','R','R','R','R','R','R','R','R','R','R','R','R','R','R','R','R','R','R','R','R','R','R','R','R','R','B','B','B','B','B','B','B','B','B','B','B','B','B','B','B','B' };Mat responsesMat(42, 1, CV_32FC1, responses);float priors[2] = {1, 1};    //先验概率CvBoostParams params( CvBoost::REAL, // boost_type  10, // weak_count  0.95, // weight_trim_rate  15, // max_depth  false, // use_surrogates  priors // priors );  CvBoost boost;boost.train (   trainingDataMat, CV_ROW_SAMPLE, responsesMat,Mat(),  Mat(),Mat(),Mat(),  params);  //预测样本float myData[2] = {55, 25};Mat myDataMat(2, 1, CV_32FC1, myData);double r = boost.predict( myDataMat );cout<<endl<<"result:  "<<(char)r<<endl;return 0;}

输出的结果为:

result:  R

决策树(七)--Boost及源码分析相关推荐

  1. boost学习之boost::lock_guard源码分析

    boost::lock_guard可以说是一种比boost::unique_lock轻量级的lock, 简单一些场景可以用它就行了.源码如下: template<typename Mutex&g ...

  2. concurrent(七)ConcurrentHashMap源码分析

    参考文档: https://www.cnblogs.com/xiaoxi/p/7474026.html https://www.ibm.com/developerworks/cn/java/java- ...

  3. Netty源码分析第7章(编码器和写数据)----第2节: MessageToByteEncoder

    Netty源码分析第7章(编码器和写数据)---->第2节: MessageToByteEncoder Netty源码分析第七章: Netty源码分析 第二节: MessageToByteEnc ...

  4. Drf从入门到精通一(API接口、Postman、Restful规范、序列化、快速使用drf、CBV源码分析)

    文章目录 一.前后端开发模式 二.API接口 三.接口测试工具Postman 四.Restful规范 五.序列化反序列化 六.DjangoRestFramework快速使用 七.CBV源码分析 一.前 ...

  5. Android录音下————AudioRecord源码分析

    Android录音下----AudioRecord源码分析 文章目录 Android录音下----AudioRecord源码分析 一.概述 1.主要分析点 2.储备知识 二.getMinBufferS ...

  6. Docker源码分析(七):Docker Container网络 (上)

    http://www.infoq.com/cn/articles/docker-source-code-analysis-part7 1.前言(什么是Docker Container) 如今,Dock ...

  7. 手机自动化测试:appium源码分析之bootstrap七

    手机自动化测试:appium源码分析之bootstrap七 poptest是国内唯一一家培养测试开发工程师的培训机构,以学员能胜任自动化测试,性能测试,测试工具开发等工作为目标.poptest测试开发 ...

  8. 决策树(十)--GBDT及OpenCV源码分析

    一.原理 梯度提升树(GBT,Gradient Boosted Trees,或称为梯度提升决策树)算法是由Friedman于1999年首次完整的提出,该算法可以实现回归.分类和排序.GBT的优点是特征 ...

  9. 决策树(九)--极端随机森林及OpenCV源码分析

    原文: http://blog.csdn.net/zhaocj/article/details/51648966 一.原理 ET或Extra-Trees(Extremely randomized tr ...

最新文章

  1. 计算机在线咨询,计算机科学与技术
  2. 面向对象的基本设计原则【转】
  3. DataNumen DWG Recovery中文版
  4. linux——第三方软件仓库的搭建
  5. gradle下bug修正后问题仍存在解决思路
  6. linux vg划分目录,修改根目录所在VG名称
  7. 求解偏微分方程开源有限元软件deal.II学习--Step 2
  8. vmare 如何与主机共享相应的文件
  9. JavaScript中的数据结构及实战系列(1):队列
  10. 计算机操作系统核心知识点总结面试笔试要点
  11. Mac电脑上如何快速创建TxT文档?一招教你~
  12. 计算机上无开根号功能 怎么计算机,攻略:2019年中级会计师无纸化考试 计算器怎么开根号?...
  13. 【慕课网】前端零基础入门---步骤一:页面结构层HTML---01-HTML基础
  14. 二级域名怎么设置_杭州360关键词优化怎么做,360SEO优化_万推霸屏
  15. html可以简写的属性,css有哪些缩写属性?
  16. 用谷歌还是火狐?手机端还是另外选择其他浏览器吧
  17. THREE.ShaderMaterial
  18. 思科《计算机网络》第一章测试答案
  19. 火箭还是飞机?——DevOps 的两种模式
  20. MFC——OpenGL编程

热门文章

  1. Linux内核dev_set_drvdata()和dev_get_drvdata()存储自定义结构体用法
  2. Emacs一个键绑定多个命令
  3. 时间区间页面设计两个框html,elementUI 2个输入框 时间区间月份选择
  4. java程序设计比赛心得体会_对Java程序设计的感想.doc
  5. 慢慢的,就没有了,就像从未存在过(转载)
  6. Tcl Tutorial 笔记10 · list
  7. window10进入“服务”的三种方式
  8. springboot 控制台输出错误信息_springboot(6)——整合日志
  9. composer全局 linux_Linux下全局安装composer方法
  10. android byte转string_“嵌入式开发学脚本干嘛”之进制/Byte/Hex处理