opencv3/C++ 机器学习-决策树/DTrees
决策树/Decision Tree
决策树/Decision Tree是一棵二叉树(每棵非叶子节点有两个子节点的树)。可用于分类或回归问题。对于分类问题(形成分类树),每个叶节点都标有一个类标签;多个叶节点可能具有相同的标签。对于回归问题(形成回归树),每个叶结点分配一个常量,所以回归函数是分段常量。
决策树从根结点递归构造。所有训练数据(特征向量和响应)用于分割根节点。在每个节点中,根据一些标准找到最佳决策规则(最好的“主要”分割)。如分类问题用“不/纯度”,回归问题用方差和。
关于不纯度,不同算法使用的计算方法不一,如ID3用信息增益/Information Gain作为不纯度;C4.5用信息增益率/Information Gain Ratio作为不纯度;CART用基尼系数/Gini Index作为不纯度。
然后,若有必要,找到替代分裂点。替代分裂点类似于训练数据的主要分割结果。 所有的数据根据初始和替代分裂点来划分给左、右孩子结点(就像在预测算法里做的一样)。然后算法递归地继续分裂左右孩子结点。
节点递归过程的终止条件:
- 树的深度达到了指定的最大值。
- 在该结点训练样本的数目少于指定阈值。
- 在该结点所有的样本属于同一类(如果是回归的话,变化已非常小)。
- 能选择到的最好的分裂跟随机选择相比已经基本没有什么有意义的改进了。
树创建好之后,如有必要,可以使用交叉验证对其进行修剪。将可能导致模型过拟合的某些分支剪掉。通常仅适用于单决策树。树集合通常会建立一些足够小的树并且用他们自身的保护机制来防止过拟合。
变量重要性:
决策树除了用于预测之外,还可以用在多变量分析上。 构建的决策树算法的一个关键特性是它能够计算每个变量的重要性(相对决策力)。 每个变量的重要性的计算是在所有的在这个变量上的分裂进行的,不管是初始的还是替代的。这样的话,要准确计算变量重要性,即使没有缺失数据,替代分裂也必须包含在训练参数中。
OpenCV DTrees类
DTree可以表示一个单独的决策树,也可以表示树集成分类器中的一个基础分类器(Boosting或Random Trees)。
常用函数
virtual void setMaxDepth(int val) ;
树的最大可能深度。 训练算法在节点深度小于maxDepth的情况下分割节点。根节点具有零深度。如果符合其他终止标准或修剪树,则实际深度会更小。默认值为INT_MAX。virtual void setMinSampleCount(int val) ;
节点最小样本数量。若节点中的样本数量小于该值,则不会被分割。默认为10。virtual void setUseSurrogates(bool val) ;
若为true,则建立替代分裂点。 这些分裂点可以处理丢失的数据并正确计算变量的重要性。 默认值为false。virtual void setCVFolds(int val);
如果CVFolds> 1,则算法使用K折叠交叉验证修剪构建好的决策树,其中K等于CVFolds。 默认值是10。virtual void setUse1SERule(bool val);
若为true,则修剪将更加严格,使树更紧凑,抗噪声能力更强,但会降低部分准确度。 默认值为true。virtual void setTruncatePrunedTree(bool val);
若为true,则修剪后的分支会被完全移除。否则分支将被保留,并可能从原决策树中获得结果。 默认值为true。
决策树示例
从文件points.txt中读取点坐标以及对应的分类,然后建立决策树对点所在区域进行划分。
#include <opencv2/opencv.hpp>
#include <opencv2/ml.hpp>
#include <iostream>
#include <fstream> using namespace std;
using namespace cv;
using namespace cv::ml;int main()
{vector<Point> trainedPoints;vector<int> trainedPointsMarkers;//读取文件中的点坐标FILE *fp;int flge = 0;int fpoint,flabel;Point point;fp = fopen("E:\\points.txt", "r+");if (fp == NULL){printf("Cannot open the file!\n");return -1;}while (!feof(fp)){ fscanf(fp, "%d", &fpoint);if (feof(fp)) break;//依次为横坐标、纵坐标、分类if ((flge%3==0? point.x = fpoint: flge%3==1? point.y = fpoint:flge%3==2? flabel = fpoint : -1)<0) return -1;if (flge%3==2){trainedPoints.push_back(point);trainedPointsMarkers.push_back(flabel);}flge++;}vector<Vec3b> colors(2);colors[0] = Vec3b(0, 255, 0);colors[1] = Vec3b(0, 0, 255);Mat src, dst;src.create( 480, 640, CV_8UC3 );src = Scalar::all(0);src.copyTo(dst);// 绘制点for( size_t i = 0; i < trainedPoints.size(); i++ ){Scalar c = colors[trainedPointsMarkers[i]];circle( src, trainedPoints[i], 3, c, -1 );circle( dst, trainedPoints[i], 3, c, -1 );}imshow( "points", src );//训练数据Mat samples;Mat(trainedPoints).reshape(1, (int)trainedPoints.size()).convertTo(samples, CV_32F);//建立模型Ptr<DTrees> model = DTrees::create();//树的最大可能深度model->setMaxDepth(8);//节点最小样本数量model->setMinSampleCount(2);//是否建立替代分裂点model->setUseSurrogates(false);//交叉验证次数model->setCVFolds(0); //是否严格修剪model->setUse1SERule(false);//分支是否完全移除model->setTruncatePrunedTree(false);//训练model->train(TrainData::create(samples, ROW_SAMPLE, Mat(trainedPointsMarkers)));//显示结果Mat testSample( 1, 2, CV_32FC1 );for( int y = 0; y < dst.rows; y += 3 ){for( int x = 0; x < dst.cols; x += 3 ){testSample.at<float>(0) = (float)x;testSample.at<float>(1) = (float)y;int response = (int)model->predict( testSample );dst.at<Vec3b>(y, x) = colors[response];}}imshow( "Decision Tree", dst );waitKey();return 0;
}
文件points.txt中的内容为:
(依次为横坐标、纵坐标、分类)
269 263 0
242 244 0
221 224 0
210 180 0
227 142 0
257 120 0
280 105 0
338 95 0
423 92 0
384 93 0
458 100 0
497 133 0
514 162 0
546 219 0
568 272 0
582 326 0
593 372 0
605 410 0
613 432 0
612 453 0
298 279 0
334 283 0
375 291 0
357 312 0
313 312 0
266 299 0
218 278 0
201 259 0
193 224 0
186 189 0
186 156 0
199 119 0
227 102 0
261 90 0
303 87 0
348 81 0
328 72 0
377 73 0
411 75 0
452 79 0
490 107 0
525 147 0
549 189 0
572 244 0
597 306 0
615 354 0
624 393 0
630 423 0
336 300 0
257 280 0
224 255 0
239 287 0
204 151 0
220 121 0
294 73 0
355 60 0
391 60 0
446 64 0
496 94 0
528 145 0
550 182 0
532 178 0
564 217 0
589 241 0
602 283 0
603 297 0
571 300 0
584 272 0
609 336 0
597 350 0
332 182 1
340 168 1
380 151 1
359 162 1
366 179 1
357 183 1
397 182 1
409 198 1
421 221 1
429 201 1
443 221 1
452 247 1
473 274 1
482 305 1
485 351 1
480 367 1
465 393 1
415 418 1
352 424 1
294 414 1
231 401 1
174 382 1
135 361 1
120 338 1
99 302 1
84 266 1
71 233 1
63 201 1
43 127 1
27 69 1
15 30 1
15 58 1
9 112 1
39 98 1
38 146 1
28 174 1
52 169 1
48 218 1
45 243 1
17 138 1
22 93 1
27 127 1
42 194 1
69 247 1
72 294 1
98 333 1
132 333 1
142 352 1
156 389 1
182 408 1
219 426 1
252 431 1
329 441 1
384 444 1
308 437 1
329 425 1
429 429 1
391 428 1
446 407 1
463 357 1
465 325 1
453 289 1
450 265 1
419 226 1
393 196 1
354 174 1
309 166 1
286 167 1
274 168 1
329 153 1
337 158 1
359 153 1
382 166 1
420 175 1
439 206 1
464 239 1
480 268 1
497 310 1
505 350 1
496 392 1
482 415 1
447 439 1
384 455 1
334 453 1
292 449 1
265 431 1
243 411 1
194 391 1
17 193 1
41 251 1
67 307 1
80 350 1
99 380 1
160 413 1
202 432 1
249 448 1
299 465 1
330 462 1
364 463 1
395 462 1
412 454 1
285 325 0
330 337 0
353 336 0
364 324 0
388 309 0
393 291 0
358 298 0
327 320 0
203 98 0
248 70 0
300 41 0
284 54 0
371 50 0
344 45 0
411 45 0
457 51 0
507 76 0
554 136 0
580 196 0
609 272 0
626 319 0
529 119 0
295 196 1
311 186 1
323 178 1
290 179 1
391 158 1
453 187 1
467 228 1
497 262 1
507 306 1
469 204 1
492 256 1
482 236 1
481 333 1
491 284 1
469 420 1
452 382 1
427 396 1
opencv3/C++ 机器学习-决策树/DTrees相关推荐
- OpenCV3 Java 机器学习使用方法汇总
原文链接:OpenCV3 Java 机器学习使用方法汇总 前言 按道理来说,C++版本的OpenCV训练的版本XML文件,在java中可以无缝使用.但要注意OpenCV本身的版本问题.从2.4 到3 ...
- 机器学习——决策树学习
机器学习--决策树学习 一.什么是决策树 二.决策树的学习过程 特征选择: 决策树生成: 剪枝: 三.决策树的一个具体的实例 导入数据 python strip() 函数和 split() 函数的详解 ...
- 3.1 机器学习 --- 决策树
3.1 机器学习 - 决策树 一 金融评分卡 模型做好后尽量快的上线,以符合要求的模型,尽快上线. 超参数赋予权重,使得模型的参数不一致,而达到均衡样本数据 二 决策树原理 1. 找女朋友 性别:男 ...
- 关于《机器学习决策树导出图片、PDF支持中文》解决办法
很久没有更新博客了,一直以为自己默默无闻,埋头苦干.实际上是一种懒惰! 2020年的春天,是一段难忘的记忆!在这段特殊的时光里,让我静心思考,潜心研究.每每遇到技术困惑,总能在CSDN找到解决办法,由 ...
- 机器学习 | 决策树原理剪枝连续值缺失值处理
机器学习 | 决策树 最近学习了西瓜书决策树一章,简单整理了笔记,后续会继续补充给 文章目录 机器学习 | 决策树 一.基本信息论 1. 信息量 2. 信息熵 二.决策树常用算法 1.ID3 2.C4 ...
- 机器学习——决策树(decision tree)
相关文章链接: 机器学习--人工神经网络(NN) 机器学习--卷积神经网络(CNN) 机器学习--循环神经网络(RNN) 机器学习--长短期记忆(LSTM) 机器学习--决策树(decision tr ...
- 机器学习 --- 决策树(educode实训作业)
引言:本文主要对educoder机器学习 --- 决策树的实训作业进行讲解,创造不易!请您点点关注,点点收藏叭!!! 目录 第1关:什么是决策树 任务描述 相关知识 引例 决策树的相关概念 编程要求 ...
- 机器学习 决策树篇——解决离散变量的分类问题
机器学习 决策树篇--解决离散变量的分类问题 摘要 熵增益和熵增益率计算 熵增益和熵增益率运行结果 离散变量的决策树模型 决策树模型运行结果 摘要 本文通过python实现了熵增益和熵增益率的计算.实 ...
- 机器学习——决策树模型:Python实现
机器学习--决策树模型:Python实现 1 决策树模型的代码实现 1.1 分类决策树模型(DecisionTreeClassifier) 1.2 回归决策树模型(DecisionTreeRegres ...
最新文章
- 转 mvc项目中,解决引用jquery文件后智能提示失效的办法
- c语言向文件中写入字符串_C语言中定义字符串的两种方式及其比较
- vscode常用快捷键大全
- 颜色选择器的设计与实现II
- mac下使用mysql
- 《用python写网络爬虫》完整版+源码
- 3年以上经验Java开发面试题
- 看着夜晚城市的广告都是用CorelDRAW发光字体效果很感叹
- 面试Vue架构师,封装一个万能表单生成器
- HDFS的StartupProgress启动跟踪分析
- 使用cp命令提示:略过目录...
- ORACLE获取月初、月末日期
- MySQL面试常问大全
- TinyOS总体介绍
- 源码编译安装git过程记录
- GCC背后的故事OpenCV相识何必曾相逢
- 圆上任意四点在同一个半圆上的概率
- 百度飞桨第一天学习笔记
- 科技青年 | 训练机器说话20年,他勇闯阿里巴巴宝库
- boseqc35能不能连电脑_bose QC35耳机怎么连接win10电脑 bose QC35无法连接电脑的解决方[多图]...