微软亚洲研究院刘铁岩博士:迎接深度学习的“大”挑战(一)

所属栏目: 科技资讯    发布时间: 2017-03-11 14:42:10   文章来源:雷锋网   阅读:2674

微软亚洲研究院刘铁岩博士:迎接深度学习的“大”挑战(一)微软亚洲研究院刘铁岩博士:迎接深度学习的“大”挑战(一)摘要: 雷锋网[AI科技评论]按:本文根据刘铁岩博士在中国人工智能学会AIDL第二期人工智能前沿讲习班*机器学习前沿所作报告《迎接深度学习的“大”挑战》编辑整理而来,发文前已得到刘铁岩博士的亲自删减校正。 刘铁岩 刘铁岩博士,微软亚洲研究院首席研究员,美…

雷锋网[AI科技评论]按:本文根据刘铁岩博士在中国人工智能学会AIDL第二期人工智能前沿讲习班*机器学习前沿所作报告《迎接深度学习的“大”挑战》编辑整理而来,发文前已得到刘铁岩博士的亲自删减校正。

刘铁岩

刘铁岩博士,微软亚洲研究院首席研究员,美国卡内基梅隆大学(CMU)客座教授。刘博士的研究兴趣包括:人工智能、机器学习、信息检索、数据挖掘等。他的先锋性工作促进了机器学习与信息检索之间的融合,被国际学术界公认为“排序学习”领域的代表人物,他在该领域的学术论文已被引用近万次。近年来,刘博士在博弈机器学习、深度学习、分布式机器学习等方面也颇有建树,他的研究工作多次获得最佳论文奖、最高引用论文奖、研究突破奖,并被广泛应用在微软的产品和在线服务中。他是国际电子电气工程师学会(IEEE)、美国计算机学会(ACM)和中国计算机学会(CCF)的高级会员,中国计算机学会的杰出演讲者和学术工委。

以下为刘铁岩博士所做的现场演讲的第一部分,主要介绍了近年人工智能所取得的应用成果;什么是深度神经网络以及它所带来的挑战等问题。

刘铁岩:非常荣幸今天有机会和大家分享我们的研究成果。我知道这几天课程安排得特别满,一天四场报告,大家有点废寝忘食的感觉,非常辛苦。希望大家听了我们的报告,能够有所收获。

今天我们跟大家分享的题目是:“迎接深度学习的大挑战”。

为什么要讲这个题目呢?深度学习这几年改变了很多行业的状态,今天上午张老师应该也讲了很多关于神经网络的话题,包括怎么学习深度神经网络的结构。今天我会从另一个角度看一看深度学习到底有哪些挑战,这些挑战怎么用学术研究的方式加以解决。

微软亚洲研究院介绍

在此之前,我准备了两张PPT,介绍一下微软亚洲研究院。

微软亚洲研究院成立于1998年,有200多名全职的研究人员,和来自于各大高校的实习生。微软亚洲研究院虽然隶属于公司,但是日常运营的形式很像大学,有很多非常有水平的研究员做导师,有非常高质量的学生跟我们做研究。我本人在微软亚洲研究院负责人工智能和机器学习的领域,我们有十几位全职的研究人员从事这方面的研究,如果大家对我们组感兴趣或者想进行合作,欢迎和我联系。

我们组的研究方向很宽,包括排序学习、大规模机器学习、深度学习、增强学习、机器学习理论等等。除了发表了百余篇论文,被引用万余次以外,我们还致力于把研究成果分享给同仁,所以在过去几年间我们主导、或者参与了多个开源项目,比如微软认知工具包(CNTK),微软分布式机器学习工具包(DMTK)、微软图引擎(Graph Engine) 等等。如果大家对我们的最新动态感兴趣,关注我们的公众号、微博,了解很多新鲜出炉的微软亚洲研究院的故事。

近年来人工智能所取得的应用成果

接下来我们进入今天报告的正题。

我们这次整个AIDL都是关于人工智能和机器学习的,类似的PPT应该已经出现了很多次,所以关于什么是人工智能,人工智能曾经走过什么道路,这里我不想再重复。总之,人工智能在过去的60年里,几起几落,每一次所谓的人工智能寒冬多半都是因为公众和政府对人工智能的期望值太高。因此,作为人工智能行业的参与者,我们有必要提醒公众、提醒政府、提醒产业,对于人工智能技术保持冷静,不要把它过早捧杀。

不过话说回来,回顾过去的十几年,人工智能确实取得了一些前所未有的成果。接下来我们就来看几个例子。深度学习的成功最早是在类似语音图像这些领域取得的。

首先,语音识别,因为有了大量的训练数据,有了Deep Learning的方案,逐步达到了人类的精度。这张PPT展示的是去年10月份我们微软研究院对外宣布的一个语音识别方面的突破性进展。

这是历史上第一次,机器达到了和人没有区别的程度,在个人对话的场景下,取得了非常低的错误率(5.9%)。这个模型是用微软认知工具包(CNTK)训练出来的,大家如果对语音的研究有兴趣,可以试用一下CNTK,它是语音识别领域被最广泛使用的深度学习工具包。

其次,图像方面最近也取得了很大的进展、2015年,来自我们微软亚洲研究院的ResNet技术,在ImageNet competition里取得了冠军,并且超过了人类的识别精度。像ImageNet这样包含上千个类别的图像数据,识别起来其实还是有难度的。即便是人,看一眼也不一定都能分辨出来。

有研究表明,人类的错误率大约是5.1%,而ResNet达到了将近3.5%的错误率。也就是说对于特定领域、特定类别的问题,机器已经超过了人的图像识别能力。这个成功后来又延续到了图像分割领域,图像分割是比图像识别更复杂的任务,不仅要告诉大家这张图像有什么,还要把它圈出来、把边界找到。2016年微软亚洲研究院的技术再次在这个更难的任务上力拔头筹、获得冠军。

上面提到的人工智能技术大多已经被微软产业化,下面给大家放一个视频,是介绍微软认知服务的,之前网上几个很出名的爆款应用,比如How old测颜龄,都是基于微软认知服务开发出来的。

视频中展示场景,包括了前面提到的语音识别、图像识别、文字识别等等。有了微软认知服务,大家如果想做一个创新应用,就不需要对深度学习有非常深的了解,不需要在云上构架一个庞大的服务器集群来训练模型,只要调用一下认知服务的API,就可以实现很多神奇的功能。

除了前面提到的语音和图像以外,在文本理解、机器翻译等方面,人工智能技术最近也取得了很大的进展。

微软有很多与此相关的产品,比如Skype translator、Microsoft translator,可以同时支持多人、多点语音、多语言的实时同声传译。接下来给大家展示的视频是关于Skype translator的,讲的是一个外国摄影师和他的中国向导之间的故事。

其实这项技术早在2012年微软亚洲研究院主办的“21世纪计算大会”上就被展示过。当时我们的研究副总裁Rick Rashid用英文做了一个主题演讲,大家听到的是机器自动同声传译出来的中文表达,听起来就像他真的会讲中文一样。

除了上述认知方面的进展,最近人工智能在博弈方面也取得了很大的进步。比如用人工智能来打电子游戏,用人工智能来下围棋等等。当年AlphaGo战胜李世乭的时候街头巷尾都在讨论。而今master横扫几十位人类高手,又掀起了大家对人工智能的新认识。

左边这张图是关于用人工智能技术来玩Atarti game的。当使用强化学习技术不断地尝试玩这个游戏,一开始机器只会学到一些基本技能,玩着玩着逐渐发现一些高级的策略,甚至获取了超过常人的技巧,比如把小球打到砖块上面去,通过不断回弹实现得分。

右边这张图是关于围棋的。围棋本身的策略空间非常大,每落一子,棋盘上都有很多不同的选择,如果再考虑到后手,则对应于一个非常庞大的搜索树。对这个搜索树进行遍历是远远超过目前计算机的计算能力的,所以大家曾一度认为在围棋这件事情上机器很难战胜人类。但是,最新的人工智能技术巧妙地回避了遍历,像人一样使用了value network来对搜索树进行有效的剪枝,从而在以高概率保留好棋的前提下,把计算的复杂度降低到计算机可以承受的范围内,并且最终战胜了人类的世界冠军。

深度学习技术

前面回顾的所有这些人工智能领域的大事件,背后都离不开“深度学习”技术。

深度神经网络及其优化方法简介

那么什么是深度学习呢?虽然早期大家提DeepLearning这个概念的时候,会联想到很多不同的模型,但是经过多年的演化,目前最主流的深度学习模型就是所谓的深层神经网络。深层神经网络指的是一个有至少包含两个隐层的神经网络。很多实用的深层神经网络甚至会包含成百上千个隐层。

简单起见,我们先举一个有三个隐层的深层神经网络作为例子。从图中可以看到,神经网络包含很多神经元,以及它们之间的拓扑连接。每个神经元做的事情非常简单,就是把上一层所有跟它相连的神经元的输出放在一起,做加权求和,然后再进行非线性变换(激活函数)。在神经元,以及神经元之间的连边上都可以有参数,比如边权和偏差等。

那么有了深层神经网络以后,怎么对它进行学习呢?常用的方法叫做经验风险最小化,也就是最小化神经网络在训练集里所有样本上的损失函数之和。为了最小化经验风险,一个最简单的方法是梯度下降法。但是,我们知道梯度下降法很容易陷入局部极小点,而且它的随机版本可能不收敛,需要通过减小学习率来控制训练过程的收敛性。为了解决这些问题,人们又提出了很多变种的优化算法,比如SVRG等等。

两种特殊的深度神经网络

了解了什么是深度神经网络,以及如何对其进行优化,我们来介绍两种特殊的深层神经网络。

首先是卷积神经网络,之所以称其为卷积神经网络,是因为它的一些基本单元非常像信号处理里的卷积操作。其实,卷积神经网络的提出,也有很多仿生学的背景在里面。咱们回想一下自己做图像识别的过程:

如果给你一幅很大的图片,要在里面识别出某个特定的人,比如张三。假定我们的脑子里有张三的形象,但是不知道他到底在图片的哪个部位,我们会怎么做呢?一个很简单的方式就是从这张图像左上角开始扫描,每次扫描都用我们脑子里的模式去匹配一下看有没有张三,没有的话往后移动一个位置,再进行下一次扫描。整个图像扫描过程中,我们对张三识别的模式是没有改变的,参数是固定的,只是在空间不断平移,这其实是所谓卷积神经网络最基本的思想。

具体来讲,卷积神经网络有三个特点:

一是使用卷积滤波器;

二是参数共享;

三是通过pooling操作实现平移不变性。

如果我们把卷积操作和Pooling操作级联在一起,不断循环往复地构建网络结构,这就会形成深层的卷积神经网络。给大家看一个例子,LeNet,它在输入图像的基础上,进行了多次卷积和pooling操作,最后在实现有效的信息抽取之后,使用全连接的网络对这些信息进行最终的分类。

第二个特殊的深层神经网络叫做循环神经网络。它的提出也和仿生学有关。咱们想一下自己是如何读书看报的。我们一般是从每段文字的第一个字开始,一边往后看,脑子里一边利用之前看过的内容的记忆,对当前看到的文字进行理解。如此循环往复,最后把整个段落的意义全都弄清楚。循环神经网络也做了同样的事情,它在标准神经网络的基础上引用了一个memory unit,用来存储和之前输入有关的信息,以帮助我们更好地理解未来的输入。

为了更形象地理解循环神经网络,我们把它展开来看。展开之后这些输入就带有时间标签了,比如说这个是你看到的第一个词X0,接下来看到第二个词X1,不断的往下移动。每次看到一个新输入之后,就会对它做某种处理,产生一些对它的认识,并且放到memory里,当看到下一个词的时候,不仅仅针对这个词本身进行理解,还会参照上一个词对应的memory;这样不断地循环下去,就得到了所谓的循环神经网络。循环神经网络和卷积神经网络有点类似,也会在不同阶段共享参数。

理论上,循环神经网络可以展开成无限深的网络,但是这会带来学习的麻烦。实践中,我们通常进行有限深度的展开,也就是所谓的BPTT技术。展开之后就可以把它当成标准的神经网络用梯度下降的方法来进行参数学习了。

深度神经网络所带来的挑战

到此为止,我们做了一个快速的神经网络简介:我们介绍了什么是神经网络,两个特殊的网络结构,以及如何学习它们的参数。不管是全连接的网络、卷积网络还是循环网络,实际中常常会用到很深的层次,比如成百上千层,那么当深度增加的时候,有什么好处,又是否会带来一些新的挑战呢?

前面我们提到过神经网络的universal approximation theorem, 它似乎告诉我们只要有一个隐层,神经网络已经可以具备几乎无限的表达能力了。那为什么还要使用那么多的隐层呢?近几年有很多的理论研究表明,当层数增加时,想要取得同样的表达能力,对隐节点总数的要求会变小很多,因此也就会带来更高的学习效率和更小的学习难度。

反过来看,当隐节点的个数相同的时候,深层网络的表达能力会比浅层网络更强,因此学习能力也就更强。当然,天下没有免费的午餐,深层网络的好处是有代价的,当网络很深的时候,用梯度下降来进行学习时,常常会遇到一些技术难题。接下来这张PPT就展示了两个常见的麻烦。

第一个麻烦是Overfitting

第二个麻烦叫Gradient vanishing

为了更好地解释这种现象,我给大家举一个例子。这是一个细长型的深度神经网络。网络参数包括边权w和偏差b。我们以b1这个参数为例,损失函数对它求导的结果如图所示。在这个连乘式里,sigma‘是激活函数的导数,每经过一个隐层,就会出现一项sigma‘。

这里画了一个常见的sigmoid function的导数,它的最高点是在输入为0的时候取得的,最高点取值是0.25,如果你的输入不是0,其取值会更小。大家知道,当我们把一长串很小的数连乘起来,它的结果会很快衰减到接近0,而在当前的参数上加上一个几乎为0 的梯度,对模型是不会有什么改变的,这就解释了为什么深层网络经常训练不充分。

为了解决这两个典型的麻烦,人们提出了一系列的技术手段。比如:

DropOut/DropConnect,其基本思想是在训练过程中引入一些随机因素,让神经网络模型不会那么狠地拟合到训练集上去。为此,可以在训练过程中随机删除一些神经元节点,或者随机删除一些连边。有人证明了,通过DropOut,可以有效降低神经网络的容量(Rademacher Average),从而避免过拟合,取得更好的泛化能力。

另外一个技术是Batch Normalization,也可以有效缓解overfitting和Gradient vanishing的问题。它其实是受到早期人们对神经网络的输入进行白化处理的启发。不同点在于它对深层神经网络的每一层都进行白化处理,而且是参数化的白化。也就是在一个mini batch里计算均值和方差,然后对信号进行0均值、标准方差的变换。这样做的好处是可以去除不同mini batch之间的差异,使得数据变得更加统一,提高泛化性能;同时,由于激活函数的输入被0均值化,也会提高其导数的幅度,从某种程度上减缓gradient vanishing的问题。

微软亚洲研究院刘铁岩博士:迎接深度学习的“大”挑战(一)相关推荐

  1. 大会直击|微软亚洲研究院刘铁岩:深度学习成功的秘密

    大会直击|微软亚洲研究院刘铁岩:深度学习成功的秘密 本文作者:宗仁 2016-09-09 21:46 导语:今天深度学习成功的主要因素:超大规模训练数据.复杂的深层模型.分布式并行训练,也正是影响其进 ...

  2. 演讲 | 微软亚洲研究院刘铁岩:对偶学习推动人工智能的新浪潮

    演讲 | 微软亚洲研究院刘铁岩:对偶学习推动人工智能的新浪潮 2016-12-22 机器之心 机器之心整理 演讲:刘铁岩 12 月 17 日,中国人工智能学会.中国工程院战略咨询中心主办,今日头条.I ...

  3. [杂谈]微软亚洲研究院院长洪小文博士写给你的新年书单

    新年将至,除了美食和聚会,别忘了给自己的头脑也充点电!春节七天乐,我们特地邀请微软亚洲研究院院长洪小文博士为大家推荐了七本书,包含了科学.科幻.商业.政治.管理等多个主题的内容.读完洪院长的春节书单, ...

  4. 微软计算机学院,微软亚洲研究院谢幸博士,秦涛博士访问计算机学院并做学术报告...

    2016年4月7日至8日,微软亚洲研究院高级研究员谢幸博士,主管研究员秦涛博士,资深学术合作经理吴国斌博士等一行应邀对中国科学技术大学进行了学术访问.4月7日晚,谢幸博士,秦涛博士学术报告会在西区活动 ...

  5. 大数据24小时:原微软亚洲研究院梅涛博士加盟京东,波兰计划把数字货币纳入反洗钱监管

    [数据猿导读] 原Facebook 人工智能实验室主任杨立昆卸任,改任首席AI科学家:又一国家政策即将出台,波兰计划把数字货币纳入反洗钱监管:计算机视觉专家梅涛博士加入京东,任AI平台与研究部AI研究 ...

  6. 北京大学微软亚洲研究院人工智能与信息社会大纲(MOOC)-北大陈斌.md

    授课目标 本课程的目标,是为大学生和社会公众提供一个深入理解人工智能的入门基础,使学生初步了解人工智能技术的基本概念.发展历史.经典算法.应用领域和对人类社会的深远影响,从而打开学习人工智能的大门,为 ...

  7. 微软亚洲研究院副院长刘铁岩:AI如何助力节能减排?

    7月10日,在微软举办的WAIC●2020人工智能予力永续未来论坛,微软亚洲研究院副院长刘铁岩围绕 AI 在节能减排领域的应用,探讨了如何推进整个社会的可持续发展. 刘铁岩指出,人工智能在助力节能环保 ...

  8. 中国AI半壁江山:微软亚洲研究院20年20大创业公司

    转自:量子位 (公众号 ID: QbitAI)授权转载,转载请联系出处. △ 当年.图片来自@MSFTResearch 微软亚洲研究院(MSRA)20周岁了. 这20年里,发表论文5000多篇,和30 ...

  9. 微软亚洲研究院4人团队完成视觉识别里程碑式突破

    一直以来,计算科学家一直在为建立世界上最精确的计算机视觉系统孜孜不倦地努力着,但取得进展的过程却一直如马拉松竞赛般漫长而艰辛.近期,微软亚洲研究院实现的突破让他们成为了这场竞赛的最新领跑者.该团队所开 ...

最新文章

  1. 四种DCOM错误的区别,0x80080005 0x800706be 0x80010105 0x
  2. 移动端图片上传旋转、压缩的解决方案
  3. Java程序员从笨鸟到菜鸟之(八十六)跟我学jquery(二)大话jquery选择器
  4. 让 Git 全局性的忽略 .DS_Store
  5. CTF(Pwn) Rop + ret2libc 题型 常规解法思路 (初级)
  6. boost::mpl模块实现copy相关的测试程序
  7. c++运算符和结合性
  8. nacos oaut服务地址_用户认证的例子:Spring Security oAuth2 + Spring Cloud Gateway + Nacos + Dubbo...
  9. linux下c语言利用iconv函数实现utf-8转unicode
  10. Unit Three-Program test
  11. python 脚本学习(二)
  12. 添加mysql至服务器_mysql 如何添加服务器
  13. 转载:GBDT算法梳理
  14. webpack中,css中打包背景图,路径报错
  15. java8 自动关闭资源_java9系列第二篇-资源自动关闭的语法增强
  16. 想开公司没钱租用办公地,注册地址怎么办?
  17. python--修改证件照的大小
  18. 小红书618品牌营销蓄水阶段告一段落,5月即将进入冲刺期
  19. shift键计算机功能,分享新手必会的快捷键:shift键的11个妙用!
  20. 智能网联汽车成兵家必争之地,恒驰智能网联汽车亮点何在?

热门文章

  1. dump java崩溃自动 不生成_GitHub 自动生成 .gitignore,只想写代码不重要的事情别烦我...
  2. 2017可以兼容那些jdk_2019从头跃——核心基础:何为JDK?Java开发工具包须知总览...
  3. mysql开发java心得_关于mysql 一些优化心得
  4. 算法分析与设计——蛮力法0/1背包
  5. mongodb distinct too large用 group
  6. 152. Leetcode 剑指 Offer 14- II. 剪绳子 II (贪心算法-基础题目)
  7. 推荐系统笔记(近邻推荐)
  8. 论文笔记:Spatial-Temporal Map Vehicle Trajectory Detection Using Dynamic Mode Decomposition and Res-UNe
  9. 文巾解题 557. 反转字符串中的单词 III
  10. linux 命令集锦