文章目录

  • 0.写在前面
  • 1. 机器学习是什么?
  • 2. 从机器学习到深度学习
    • 2.1 机器学习的发展历史
    • 2.2 到底机器学习和深度学习的关系是什么?
  • 3. 传统的机器学习算法没落了么?还有必要学么?
  • 4. 总结

0.写在前面

在机器学习与深度学习领域学习了一年之后,想写一篇关于自己对ML和DL的理解,因为学了这么多算法,需要跳出来看看到底在学啥?

1. 机器学习是什么?

Think the following Conversation:朋友:你的专业方向是什么啊,小伙子?我:机器学习!朋友:哦,那是干啥的?我:简单来说就是用数据去解决实际问题的wait wait,如果行内人问你:你怎么理解机器学习
我:上图(其实就是围绕“用数据解决问题稍微展开一下”)

接着上面的对话业内人员:你觉得机器学习应该包含哪些过程?
我:上图,对每一个步骤都可以展开聊一聊

2. 从机器学习到深度学习

2.1 机器学习的发展历史

机器学习并不是人工智能一开始就采用的方法。人工智能的发展经历了逻辑推理,知识工程,机器学习三个阶段

1)第一阶段的重点是逻辑推理(1950s),例如数学定理的证明。这类方法采用符号逻辑来模拟人的智能
2)第二阶段的代表是专家系统(1970s),这类方法为各个领域的问题建立专家知识库,利用这些知识来完成推理和决策。如果要让人工智能做疾病诊断,那就要把医生的诊断知识建成一个库,然后用这些知识对病人进行判断,很显然,它的成本很高。
3)第三阶段就是机器学习阶段。“授人以鱼不如授人以渔“,专家系统需要人工制订一些规则,数据在根据这些规则去做出预测,有点类似if....then决策树的意思。与其请那些专家,不如让模型自己去学习这些规则,这就是机器学习:数据-->模型-->训练(学习这些数据中的规则或者规律)-->评估-->预测

在机器学习时代(上面的第三阶段),它的发展又可以分为三个阶段。

1)1980年代正式登上历史舞台,不具备影响力,不温不火,主要原因是受限与当时的环境,典型的代表是:

1984:分类与回归树(CART)1986:反向传播算法1989:卷积神经网络

2)1990~2012年,走向成熟和应用。随着计算机技术的快速发展,机器学习迎来了它的春天,在此期间诞生了众多的理论和算法,并真正走向了应用工业界,实现了算法落地。典型代表算法有:

1995:支持向量机(SVM)1997:AdaBoost算法1997:循环神经网络(RNN)和LSTM2000:流形学习2001:随机森林

3)2012年~至今为深度学习时期,神经网络卷土重来。在与SVM的竞争中,神经网络长时间内处于下风,直到2012年局面才被改变,原因是计算机处理数据的能力越来越好。SVM、AdaBoost等所谓的浅层模型并不能很好的解决图像识别,语音识别等复杂的问题,在这些问题上存在严重的过拟合(过拟合的表现是在训练样本集上表现很好,在真正使用时表现很差。就像一个很机械的学生,考试时遇到自己学过的题目都会做,但对新的题目无法举一反三)。为此我们需要更强大的算法,历史又一次选择了神经网络。深度学习技术诞生并急速发展,较好的解决了现阶段AI的一些重点问题,并带来了产业界的快速发展。

深度学习的起源可以追溯到2006年的一篇文章《 Reducing the Dimensionality of Data with Neural Networks》,Hinton等人提出了一种训练深层神经网络的方法,用受限玻尔兹曼机训练多层神经网络的每一层,得到初始权重,然后继续训练整个神经网络。2012年Hinton小组发明的深度卷积神经网络AlexNet(《ImageNet Classification with Deep Convolutional Neural Networks》)首先在图像分类问题上取代成功,随后被用于机器视觉的各种问题上,包括通用目标检测,人脸检测,行人检测,人脸识别,图像分割,图像边缘检测等。在这些问题上,卷积神经网络取得了当前最好的性能。

在另一类称为时间序列分析的问题上,循环神经网络取得了成功。典型的代表是语音识别,自然语言处理,使用深度循环神经网络之后,语音识别的准确率显著提升,直至达到实际应用的要求。

历史选择了深度神经网络作为解决图像、声音识别、围棋等复杂AI问题的方法并非偶然,神经网络在理论上有万能逼近定理(universal approximation),文章来自《Multilayer feedforward networks are universal approximators》):

只要神经元的数量足够,激活函数满足某些数学性质,至少包含一个隐含层的前馈型神经网络可以逼近闭区间上任意连续函数到任意指定精度。即用神经网络可以模拟出任意复杂的函数。我们要识别的图像、语音数据可以看做是一个向量或者矩阵,识别算法则是这些数据到类别值的一个映射函数。

2016年3月份,震惊世界的AlphaGo以4:1的成绩战胜李世石,将深度学习技术(具体来讲是强化学习)推向高潮,让越来越多的人了解到深度学习的魅力,也让更多的人加入深度学习的研究。

下图展示了这些年的经典算法:

2.2 到底机器学习和深度学习的关系是什么?

其实可以从特征提取的角度考虑问题,机器学习对数据的特征需要一定的洞察能力,到底什么是好的特征,这是ML要思考的问题。而深度学习相当于把数据放在了黑盒子中,然后”摇一摇“,就能自动学习到有用的特征,可以说DL是一种端到端的学习(end-to-end).

3. 传统的机器学习算法没落了么?还有必要学么?

有时候学习深度学习学的陷进去了,慢慢地,觉得既然有了深度学习,那我们还学习机器学习干什么,除了工作实习面试需要。不知道你们是否有这样的疑惑?

后来跳出来想一想,学习机器学习非常必要,相当必要!

首先,考虑深度学习与机器学习的关系,深度学习是机器学习的一部分,所以说机器学习是深度学习的基石。

其次,深度学习占据统治地位的多数是在计算机视觉领域、自然语言处理领域。而且深度学习是 data driven 的,需要大量的数据,数据是其燃料,没了燃料,深度学习也巧妇难为无米之炊。如图像分类任务中,就需要大量的标注数据,因为有了 ImageNet 这样 百万量级,并带有标注 的数据,CNN 才能大显神威。

事实上,在实际的问题中,我们可能并不会有海量级别的、带有标注的数据。如你在做医学方面的一些模型,能拿到病人的信息数据少之又少。所以说在小数据集上,深度学习还取代不了诸如 非线性和线性核 SVM,贝叶斯分类器 方法。实际操作来看,SVM 只需要很小的数据就能找到数据之间分类的 超平面,得到很不错的分类结果。

所以,根据奥卡姆剃刀原理,能用 Linear regression、Logistic regression 能解决的问题,还干嘛一定要用深度学习算法呢?

所以,虽然深度学习发展如火如荼,但是其他机器学习算法并不会因此而没落

4. 总结

  • 深度学习是 data driven 的,需要大量的数据,而传统的机器学习算法通常不需要;

  • 深度学习本质上可以看作一个特征学习器,在无需另构特征情况下,传统的机器学习算法已经能够胜任日常的任务;

  • 如无必要,勿增实体。能够简单的模型解决的,不必要上深度学习算法,杀鸡焉用牛刀?

参考文章:
https://blog.csdn.net/yezi_1026/article/details/52760709

对传统机器学习和深度学习的一些思考相关推荐

  1. 机器学习、监督学习、非监督学习、强化学习传统机器学习、深度学习、迁移学习基本概念

    文章目录 机器学习(machine learning) 监督学习(supervised learning) 非监督学习(unsupervised learning) 强化学习(reinforcemen ...

  2. AI人工智能ML机器学习DL深度学习

    人工智能Artificial Intelligence最早是在1956年提出的.几个计算机科学家在达特茅斯会议上希望能使计算机不仅仅是进行简单的计算,而是可以达到人脑相同的功能.关于人工智能,罗辑思维 ...

  3. 机器学习_深度学习毕设题目汇总——行人

    下面是该类的一些题目: 题目 图像中的行人检测关键技术研究 基于图像的行人再识别重排序算法研究 基于显著区域特征的行人再识别技术研究 基于深度学习的行人重识别算法研究 基于生物视觉模型的行人识别研究 ...

  4. 机器学习和深度学习的三点关键区别

    机器学习和深度学习的三点关键区别 最简单.最重要的三点区别 深度学习是机器学习的一种子类,通常我们讲的机器学习是传统机器学习方法,比较也是建立于传统机器学习和深度学习两者的区别. 学习的东西不同 训练 ...

  5. 机器学习VS深度学习

    ​如今,当有人提到人工智能引起社会变革潜力时,他们很可能是在谈论机器学习中的人工神经网络.当一篇文章谈人工神经网络突破性进展时,作者很可能指的是深度学习. 人工神经网络是一种非线性统计建模工具,可以用 ...

  6. 人工智能、机器学习与深度学习

    一.概念 1.人工智能 人工智能(Artificial intelligence)简称AI.人工智能是计算机科学的一个分支,它企图了解智能的本质,并生产出一种新的能以人类智能相似的方式做出反应的智能机 ...

  7. 简单读懂人工智能:机器学习与深度学习是什么关系

    从计算机发明之初,人们就希望它能够帮助甚至代替人类完成重复性劳作.利用巨大的存储空间和超高的运算速度,计算机已经可以非常轻易地完成一些对于人类非常困难,但对计算机相对简单的问题.比如,统计一本书中不同 ...

  8. 新闻上的文本分类:机器学习大乱斗 王岳王院长 王岳王院长 5 个月前 目标 从头开始实践中文短文本分类,记录一下实验流程与遇到的坑 运用多种机器学习(深度学习 + 传统机器学习)方法比较短文本分类处

    新闻上的文本分类:机器学习大乱斗 王岳王院长 5 个月前 目标 从头开始实践中文短文本分类,记录一下实验流程与遇到的坑 运用多种机器学习(深度学习 + 传统机器学习)方法比较短文本分类处理过程与结果差 ...

  9. 1-1 机器学习和深度学习综述-paddle

    课程>我的课程>百度架构师手把手教深度学习>1-1 机器学习和深度学习综述> 1-1 机器学习和深度学习综述 paddle初级课程 王然(学生) Notebook 教育 初级深 ...

最新文章

  1. 7软件质量与测试规范
  2. Py之basemap:python库之basemap的简介、安装、使用方法之详细攻略
  3. ffmpeg函数调用失败--在编译自己的ffmpeg函数的时候显示ffmpeg函数undefined reference to `av_log_set_level(int)‘
  4. python判断值是否为空(亲测)
  5. General error: 24374 OCIStmtFetch: ORA-24374: define not done before fetch or execute and fetch
  6. c cuda 指定gpu_《CUDA C编程权威指南》——1.3 用GPU输出Hello World-阿里云开发者社区...
  7. 第十二期:七种优秀的浏览器兼容性测试工具
  8. java中的map是什么_转载java中Map的详解
  9. 宅在家里写数据库中联表查询
  10. java ognl使用_java框架篇---struts之OGNL详解
  11. qt之qthread的使用
  12. Java技术体系简介
  13. 中国计算机类核心期刊
  14. mysql数据库repair_MySQL数据库中的REPAIRTABLE语法介绍
  15. 三星android安装到sd卡,三星怎么安装sd卡 三星手机怎么安装sim卡
  16. 用R语言理解圆周率、自然对数和欧拉常数
  17. [英语] 自建专业词典
  18. ubuntu下向163发送邮件
  19. 名片识别 java_基于JAVA的名片识别接口调用代码实例
  20. 1月全球CTF比赛时间汇总来了!

热门文章

  1. 忘了BIOS密码不用慌 多种方法可解决
  2. 账龄分析表excel模板_商品分析之季度订货分析表 | 附模板 |商品管理
  3. Hive分桶表插入数据报错“(The ownership on the staging directory /tmp/hadoop-yarn/staging/root/.staging is not”
  4. ESXi中虚拟机使用USB存储设备
  5. android检测usb存储,USBdevice识别为存储设备并找到路径
  6. “工作十年还买不起一个厕所”:底层打工人的命运,该何去何从?
  7. 网络安全 — SASE — Overview
  8. 方包文章生成器,在线生成原创文章
  9. DELL服务器修改SN号流程
  10. 【架构实战day1】京东开放平台的架构与演进