比较决策树和回归

  • 表面上看:

    决策树可以对付缺失值,而逻辑回归需要挖掘人员预先对缺失数据进行处理。但实际上决策树同样要对缺失值做出某种假设和处理。例如CART在遇到一个变量中有缺失情况时,是用次级变量进行替换切分。这种做法在逻辑回归中也可以办到,但需要单独的编程。而在决策树中,这一步已经嵌入软件的算法引擎。

  • 实质上看:

    1.逻辑回归对数据整体结构的分析优于决策树,而决策树对局部结构的分析优于逻辑回归。
    2.逻辑回归擅长辨识线性关系,而决策树对线性关系的把握较差。线性联系在实践中有很多优点:简洁,易理解,可以在一定程度上防止对数据的过度拟合。决策树的强项是非线性关联,但是很多非线性关系完全可以用直线模拟,而且效果很好。
    3.逻辑回归对极值比较敏感,容易受极端值的影响,而决策树对极值有很好的抗干扰性

  • 两者的差别主要来自算法逻辑

    决策树由于采用分割的方法,所以能够深入数据细部,但同时就失去了对全局的把握。一个分层一旦形成,它和别的层面或节点的关系就被切断了,以后的挖掘只能在局部中进行。同时由于切分,样本数量不断萎缩,所以无法支持对多变量的同时检验。而逻辑回归,始终着眼整个数据的拟合,所以对全局把握较好。但无法兼顾局部数据,或者说缺乏探查局部结构的内在机制。

  • 应用上的区别

    逻辑回归原则上可以提供数据中每个观察点的概率,而决策树只能把挖掘对象分为有限的组群。比如决策树确定17个节点,全部人口就只能有17个概率,在应用上受到一定限制。就操作来说,决策树比较容易上手,需要的数据预处理较少,而逻辑回归则要求一定的训练和技巧,决策树的结果和逻辑回归相比略显粗糙

  • 两者间互补或增强

    • 从决策树分析中找出数据局部结构,作为在逻辑回归中构建依变量(interaction)的依据。
    • 在需要对预测因子进行离散化处理时,利用决策树分析决定最佳切分点。
    • 把决策树分类的最终结果作为预测变量,和其他协变量一起代入回归模型,又称为“嫁接式模型”。从理论上讲,嫁接模型综合了决策树和逻辑回归的优点。最终节点包含了数据中重要的局部结构,而协变量可以拾补被决策树遗漏的数据整体结构。

用随机森林模型替代常用的回归和分类模型

  • 随机森林的原理

随机森林可以解释若干自变量(X1、X2、…、Xk)对因变量Y的作用。如果因变量Y有n个观测值,有k个自变量与之相关;在构建分类树的时候,随机森林会随机地在原数据中重新选择n个观测值,其中有的观测值被选择多次,有的没有被选到,这是Bootstrap重新抽样的方法。同时,随机森林随机地从k个自变量选择部分变量进行分类树节点的确定。这样,每次构建的分类树都可能不一样。一般情况下,随机森林随机地生成几百个至几千个分类树,然后选择重复程度最高的树作为最终结果。

  • 对有无数据的分析

对于有或无、生或死、发生或不发生等二分变量的分析,一般用逻辑斯蒂回归(logisticregression)的方法。逻辑斯蒂回归实质上是对因变量Y作两个分类水平的判别。逻辑斯蒂回归对自变量的多元共线性非常敏感,要求自变量之间相互独立。随机森林则完全不需要这个前提条件。Breiman在2001年发表了具有革命意义的文章,批判了当前主流的统计学方法,指出经典模型如逻辑斯蒂回归经常给出不可靠的结论,而随机森林准确而可靠。

  • 随机森林的优点

它的学习过程很快。在处理很大的数据时,它依旧非常高效。随机森林可以处理大量的多达几千个的自变量。现有的随机森林算法评估所有变量的重要性,而不需要顾虑一般回归问题面临的多元共线性的问题。它包含估计缺失值的算法,如果有一部分的资料遗失,仍可以维持一定的准确度。随机森林中分类树的算法自然地包括了变量的交互作用(interaction),即X1的变化导致X2对Y的作用发生改变。交互作用在其他模型中(如逻辑斯蒂回归)因其复杂性经常被忽略。随机森林对离群值不敏感,在随机干扰较多的情况下表现稳健。随机森林不易产生对数据的过度拟合,然而这点尚有争议。

  • 随机森林的缺点

它的算法倾向于观测值较多的类别(如果昆虫B的记录较多,而且昆虫A、B和C间的差距不大,预测值会倾向于B)。另外,随机森林中水平较多的分类属性的自变量(如土地利用类型 > 20个类别)比水平较少的分类属性的自变量(气候区类型<10个类别)对模型的影响大。

用于数据挖掘的分类算法有哪些,各有何优劣?

  • 训练集有多大?

    • 训练集很小,高偏差/低方差的分类器(如朴素贝叶斯)比低偏差/高方差的分类器(如K近邻或Logistic回归)更有优势,因为后者容易过拟合。
    • 训练集增大,高偏差的分类器并不能训练出非常准确的模型,所以低偏差/高方差的分类器会胜出(它们有更小的渐近误差)。
  • 某些分类器的优势

    • 朴素贝叶斯(Naive Bayes, NB)

    如果条件独立假设成立的话,NB将比鉴别模型(如Logistic回归)收敛的更快,所以你只需要少量的训练数据。即使条件独立假设不成立,NB在实际中仍然表现出惊人的好。如果你想做类似半监督学习,或者是既要模型简单又要性能好,NB值得尝试。

    • Logistic回归(Logistic Regression, LR)

    LR有很多方法来对模型正则化。比起NB的条件独立性假设,LR不需要考虑样本是否是相关的。与决策树与支持向量机(SVM)不同,NB有很好的概率解释,且很容易利用新的训练数据来更新模型(使用在线梯度下降法)。如果你想要一些概率信息(如,为了更容易的调整分类阈值,得到分类的不确定性,得到置信区间),或者希望将来有更多数据时能方便的更新改进模型,LR是值得使用的。

    • 决策树(Decision Tree, DT)

    DT是非参数的,所以你不需要担心野点(或离群点)和数据是否线性可分的问题(例如,DT可以轻松的处理这种情况:属于A类的样本的特征x取值往往非常小或者非常大,而属于B类的样本的特征x取值在中间范围)。DT的主要缺点是容易过拟合,这也正是随机森林(Random Forest,RF)(或者Boosted树)等集成学习算法被提出来的原因。此外,RF在很多分类问题中经常表现得最好(我个人相信一般比SVM稍好),且速度快可扩展,也不像SVM那样需要调整大量的参数,所以最近RF是一个非常流行的算法。

    • 支持向量机(Support Vector Machine, SVM)

    很高的分类正确率,对过拟合有很好的理论保证,选取合适的核函数,面对特征线性不可分的问题也可以表现得很好。SVM在维数通常很高的文本分类中非常的流行。由于较大的内存需求和繁琐的调参,我认为RF已经开始威胁其地位了。

回到LR与DT的问题(我更倾向是LR与RF的问题),做个简单的总结:两种方法都很快且可扩展。在正确率方面,RF比LR更优。但是LR可以在线更新且提供有用的概率信息。鉴于你在Square,可能从事欺诈检测:如果你想快速的调整阈值来改变假阳性率与假阴性率,分类结果中包含概率信息将很有帮助。无论你选择什么算法,如果你的各类样本数量是不均衡的,你需要重新采样各类数据或者调整你的误差度量方法来使各类更均衡。

  • 但是

更好的数据往往比更好的算法更重要,提取好的特征也需要很大的功夫。如果你的数据集非常大,那么分类算法的选择可能对最后的分类性能影响并不大(所以可以根据运行速度或者易用性来选择)。

如果你很在意分类的正确率,那么你得尝试多种分类器,根据交叉验证的结果来挑选性能最好的。

分类模型到底如何选择相关推荐

  1. 分类模型的评估方法-正确率(Accuracy)

    我们知道,机器学习的一大任务是"分类".我们构建了一个分类模型,通过训练集训练好后,那么这个分类模型到底预测效果怎么样呢?那就需要进行评估验证. 评估验证当然是在测试集上.问题是, ...

  2. 机器学习中的不平衡分类方法(part2)--模型评估与选择

    学习笔记,仅供参考,有错必纠 参考自:<机器学习中的不平衡分类方法>-- 康琦,吴启迪 文章目录 模型评估与选择 训练误差与测试误差 过拟合与欠拟合 模型选择 评估方法 模型评估与选择 训 ...

  3. r语言中popsd和sd的区别_R语言中回归和分类模型选择的性能指标

    有多种性能指标来描述机器学习模型的质量.但是,问题是,对于哪个问题正确的方法是什么?在这里,我讨论了选择回归模型和分类模型时最重要的性能指标.请注意,此处介绍的性能指标不应用于特征选择,因为它们没有考 ...

  4. 数据挖掘读书笔记--第八章(下):分类:模型评估与选择、提高分类器准确率技术

    散记知识点 --"评估分类器,提高分类器" 5. 模型评估与选择 5.1 评估分类器性能 (1) 评估分类器性能的度量 评估分类器性能的度量主要有:准确率(识别率).敏感度(召回率 ...

  5. 大道至简——浅谈机器学习分类模型选择

    机器学习的基本分类模型: KNN,决策树,naive bayes,逻辑回归,SVM,adaboost KNN:一种直接的学习方法,通过相似的近邻投票分类.模型不确定性有三:距离度量(相似性度量),特征 ...

  6. 【NLP】经典分类模型朴素贝叶斯解读

    贝叶斯分类器在早期的自然语言处理任务中有着较多实际的应用,例如大部分的垃圾邮件处理都是用的贝叶斯分类器.贝叶斯分类器的理论对于理解后续的NLP模型有很大的进益,感兴趣的小伙伴一定要好好看看,本文会详细 ...

  7. [机器学习] 二分类模型评估指标---精确率Precision、召回率Recall、ROC|AUC

    一 为什么要评估模型? 一句话,想找到最有效的模型.模型的应用是循环迭代的过程,只有通过持续调整和调优才能适应在线数据和业务目标. 选定模型时一开始都是假设数据的分布是一定的,然而数据的分布会随着时间 ...

  8. 检测恶意软件分类模型中的概念漂移

    科研笔记 论文题目-检测恶意软件分类模型中的概念漂移 共形预测 (conformal prediction)是一种置信度预测器,它生成具有用户定义的错误率的预测.在某个置信度水平下,所有预测范围的那部 ...

  9. 机器学习——模型评估,选择与验证

    文章目录 机器学习--模型评估,选择与验证 训练集与测试集 为什么要有训练集与测试集 如何划分训练集与测试集 欠拟合与过拟合 欠拟合 过拟合 偏差与方差 模型误差来源 偏差与方差 验证集与交叉验证 为 ...

最新文章

  1. C++: 不可拷贝(noncopyable)类
  2. HDU2021 发工资咯
  3. Leetcode 978. 最长湍流子数组
  4. Onvif2.6.1命名空间前缀对照
  5. LeetCode 349. 两个数组的交集(哈希)
  6. C 语言实例 - 判断闰年
  7. 模拟cmos集成电路设计_单级放大器中的噪声--CMOS模拟集成电路视频课程节选
  8. 完整的 .NET Core 目标框架的预处理器符号列表
  9. 利用 Webpack 实现小程序多项目管理
  10. tomcat的连接数与线程池
  11. java children_java构建树形列表(带children属性)
  12. 苹果mac屏幕录像软件:ScreenFlow
  13. OpenCv中 width 和 widthStep的区别
  14. 最全的蓝桥杯嵌入式备赛集合~
  15. IT群侠传第二回一专多能
  16. 阿里云共享型云服务器与独享型云服务器有什么区别?如何选择?
  17. 利用pandas拆分单元格并进行分组聚合
  18. 多个html文件转换为excel,如何Excel批量转为Html或者Html转换成Excel
  19. 主板2个M. 2接口,哪个m2插槽是与CPU直连?总结不得不说PCIE知识
  20. 将html字符串转换成html标签显示到页面上(转)

热门文章

  1. IT行业里的热门技术 | 热门IT技术项目分享 | 详细介绍一下机器人技术
  2. JS往数组中添加字段
  3. 1.1.4. Multi-task Lasso(多任务 Lasso)(多任务学习)
  4. Altium Designer 错误: Component U1 LM833MM has unused sub-part (2).
  5. 计算机与网络技术基础
  6. 计算机内存tm,Intel(R) Core(TM) i3-3110M CPU @ 2.40GHz支持多大内存
  7. Windows下使用Docker搭建Kafka
  8. 微信小程序扫描二维码、小程序码进入的开发测试
  9. MFC的COleDateTime类在时间中的用法
  10. Hexo 个人博客绑定域名配置