如何评价吴恩达的学术地位

吴恩达(AndrewNg),斯坦福计算机系的副教授,师从机器学习的大师级人物MichaelI.Jordan。

同门师兄弟包括ZoubinGhahramani,TommiJaakkola,EricXing,DavidBlei,徒子徒孙遍布美国名校,他们这一大学派的主要研究和贡献集中在统计机器学习(StatisticalMachineLearning)和图模型(ProbabilisticGraphicalmodel),具体的比如Spectralclustering,NonparametricBayesianMethods,VariationalMethods等等。

现在图模型和NonparametricBayesianMethods都是机器学习领域炙手可热的研究方向。

MichaelJordan的研究很好的将统计和机器学习联系了起来,将VariationalMethods发扬光大,他也还身兼统计系和计算机系教职。

吴恩达的学术研究兴趣比较广,做的东西有比较理论的,但更多的是理论和应用的结合。

他的一作主要集中在SpectralClustering,UnsupervisedLearning和增强式学习(reinforcementlearning),机器学习的很多方面都有涉及,比如featureselection,over-fitting,policysearch。

由于做reinforcementlearning和unsupervisedlearning,所以有很多项目是和机器人有关的,他也发起了ROS(RobotOperatingSystem),一个开源的机器人操作系统,影响力很大。

其他的参与的研究就很多了,MichaelJordan那一片的统计机器学习都有参与,在图模型领域也有很多非常优秀论文,比如自然语言处理(NLP)的神器LatentDirchirelntAllocation(LDA)那篇论文他也有贡献。

他现在的研究兴趣主要是深度学习(DeepLearning),深度学习说白了就是死灰复燃的神经网络(NeuralNetwork),神经网络的一代鼻祖是多伦多大学的GeoffreyHinton。

GeoffreyHinton和吴恩达一起在Google搞深度学习(GoogleBrainProject),他们俩现在在这一块的论文很多,影响力很大。

总体而言他是顶级的机器学习研究者,在斯坦福是tenuredprofessor已经说明了这点,至于LabDirector,和学术无关,只要是教授都可以成立一个实验室自己当主任(Director),不要把主任拿过来说事。

更重要的是,他在学术圈内圈外知名度很高!

除了师承之外,还有一个重要原因是他在斯坦福公开课里面主讲机器学习,讲的的确是非常好,在工程界非常受欢迎,后来和DaphneKoller(机器学习界的一姐和大牛,《ProbabilisticGraphicalModels:PrinciplesandTechniques》一书的作者)一起成立了Coursera。

吴恩达对慕课(MOOC)和Coursera的贡献我就不赘述了。

另外吴恩达会说中文,出生于英国,高中毕业于新加坡的RafflesInsitution,本科毕业于卡耐基梅隆大学,硕士在麻省理工,博士毕业于伯克利,早年在香港和英国生活过。

谷歌人工智能写作项目:神经网络伪原创

人工智能,机器学习,深度学习,到底有何区别

有人说,人工智能(AI)是未来,人工智能是科幻,人工智能也是我们日常生活中的一部分好文案。这些评价可以说都是正确的,就看你指的是哪一种人工智能。

今年早些时候,GoogleDeepMind的AlphaGo打败了韩国的围棋大师李世乭九段。

在媒体描述DeepMind胜利的时候,将人工智能(AI)、机器学习(machinelearning)和深度学习(deeplearning)都用上了。

这三者在AlphaGo击败李世乭的过程中都起了作用,但它们说的并不是一回事。今天我们就用最简单的方法——同心圆,可视化地展现出它们三者的关系和应用。

如上图,人工智能是最早出现的,也是最大、最外侧的同心圆;其次是机器学习,稍晚一点;最内侧,是深度学习,当今人工智能大爆炸的核心驱动。五十年代,人工智能曾一度被极为看好。

之后,人工智能的一些较小的子集发展了起来。先是机器学习,然后是深度学习。深度学习又是机器学习的子集。深度学习造成了前所未有的巨大的影响。

从概念的提出到走向繁荣1956年,几个计算机科学家相聚在达特茅斯会议(DartmouthConferences),提出了“人工智能”的概念。

其后,人工智能就一直萦绕于人们的脑海之中,并在科研实验室中慢慢孵化。之后的几十年,人工智能一直在两极反转,或被称作人类文明耀眼未来的预言;或者被当成技术疯子的狂想扔到垃圾堆里。

坦白说,直到2012年之前,这两种声音还在同时存在。过去几年,尤其是2015年以来,人工智能开始大爆发。很大一部分是由于GPU的广泛应用,使得并行计算变得更快、更便宜、更有效。

当然,无限拓展的存储能力和骤然爆发的数据洪流(大数据)的组合拳,也使得图像数据、文本数据、交易数据、映射数据全面海量爆发。

让我们慢慢梳理一下计算机科学家们是如何将人工智能从最早的一点点苗头,发展到能够支撑那些每天被数亿用户使用的应用的。

| 人工智能(ArtificialIntelligence)——为机器赋予人的智能早在1956年夏天那次会议,人工智能的先驱们就梦想着用当时刚刚出现的计算机来构造复杂的、拥有与人类智慧同样本质特性的机器。

这就是我们现在所说的“强人工智能”(GeneralAI)。这个无所不能的机器,它有着我们所有的感知(甚至比人更多),我们所有的理性,可以像我们一样思考。

人们在电影里也总是看到这样的机器:友好的,像星球大战中的C-3PO;邪恶的,如终结者。强人工智能现在还只存在于电影和科幻小说中,原因不难理解,我们还没法实现它们,至少目前还不行。

我们目前能实现的,一般被称为“弱人工智能”(NarrowAI)。弱人工智能是能够与人一样,甚至比人更好地执行特定任务的技术。例如,Pinterest上的图像分类;或者Facebook的人脸识别。

这些是弱人工智能在实践中的例子。这些技术实现的是人类智能的一些具体的局部。但它们是如何实现的?这种智能是从何而来?这就带我们来到同心圆的里面一层,机器学习。

| 机器学习——一种实现人工智能的方法机器学习最基本的做法,是使用算法来解析数据、从中学习,然后对真实世界中的事件做出决策和预测。

与传统的为解决特定任务、硬编码的软件程序不同,机器学习是用大量的数据来“训练”,通过各种算法从数据中学习如何完成任务。机器学习直接来源于早期的人工智能领域。

传统算法包括决策树学习、推导逻辑规划、聚类、强化学习和贝叶斯网络等等。众所周知,我们还没有实现强人工智能。早期机器学习方法甚至都无法实现弱人工智能。

机器学习最成功的应用领域是计算机视觉,虽然也还是需要大量的手工编码来完成工作。

人们需要手工编写分类器、边缘检测滤波器,以便让程序能识别物体从哪里开始,到哪里结束;写形状检测程序来判断检测对象是不是有八条边;写分类器来识别字母“ST-O-P”。

使用以上这些手工编写的分类器,人们总算可以开发算法来感知图像,判断图像是不是一个停止标志牌。这个结果还算不错,但并不是那种能让人为之一振的成功。

特别是遇到云雾天,标志牌变得不是那么清晰可见,又或者被树遮挡一部分,算法就难以成功了。这就是为什么前一段时间,计算机视觉的性能一直无法接近到人的能力。它太僵化,太容易受环境条件的干扰。

随着时间的推进,学习算法的发展改变了一切。

| 深度学习——一种实现机器学习的技术人工神经网络(ArtificialNeuralNetworks)是早期机器学习中的一个重要的算法,历经数十年风风雨雨。

神经网络的原理是受我们大脑的生理结构——互相交叉相连的神经元启发。但与大脑中一个神经元可以连接一定距离内的任意神经元不同,人工神经网络具有离散的层、连接和数据传播的方向。

例如,我们可以把一幅图像切分成图像块,输入到神经网络的第一层。在第一层的每一个神经元都把数据传递到第二层。第二层的神经元也是完成类似的工作,把数据传递到第三层,以此类推,直到最后一层,然后生成结果。

每一个神经元都为它的输入分配权重,这个权重的正确与否与其执行的任务直接相关。最终的输出由这些权重加总来决定。我们仍以停止(Stop)标志牌为例。

将一个停止标志牌图像的所有元素都打碎,然后用神经元进行“检查”:八边形的外形、救火车般的红颜色、鲜明突出的字母、交通标志的典型尺寸和静止不动运动特性等等。

神经网络的任务就是给出结论,它到底是不是一个停止标志牌。神经网络会根据所有权重,给出一个经过深思熟虑的猜测——“概率向量”。

这个例子里,系统可能会给出这样的结果:86%可能是一个停止标志牌;7%的可能是一个限速标志牌;5%的可能是一个风筝挂在树上等等。然后网络结构告知神经网络,它的结论是否正确。

即使是这个例子,也算是比较超前了。直到前不久,神经网络也还是为人工智能圈所淡忘。其实在人工智能出现的早期,神经网络就已经存在了,但神经网络对于“智能”的贡献微乎其微。

主要问题是,即使是最基本的神经网络,也需要大量的运算。神经网络算法的运算需求难以得到满足。

不过,还是有一些虔诚的研究团队,以多伦多大学的GeoffreyHinton为代表,坚持研究,实现了以超算为目标的并行算法的运行与概念证明。但也直到GPU得到广泛应用,这些努力才见到成效。

我们回过头来看这个停止标志识别的例子。神经网络是调制、训练出来的,时不时还是很容易出错的。它最需要的,就是训练。

需要成百上千甚至几百万张图像来训练,直到神经元的输入的权值都被调制得十分精确,无论是否有雾,晴天还是雨天,每次都能得到正确的结果。

只有这个时候,我们才可以说神经网络成功地自学习到一个停止标志的样子;或者在Facebook的应用里,神经网络自学习了你妈妈的脸;又或者是2012年吴恩达(AndrewNg)教授在Google实现了神经网络学习到猫的样子等等。

吴教授的突破在于,把这些神经网络从基础上显著地增大了。层数非常多,神经元也非常多,然后给系统输入海量的数据,来训练网络。在吴教授这里,数据是一千万YouTube视频中的图像。

吴教授为深度学习(deeplearning)加入了“深度”(deep)。这里的“深度”就是说神经网络中众多的层。

现在,经过深度学习训练的图像识别,在一些场景中甚至可以比人做得更好:从识别猫,到辨别血液中癌症的早期成分,到识别核磁共振成像中的肿瘤。

Google的AlphaGo先是学会了如何下围棋,然后与它自己下棋训练。它训练自己神经网络的方法,就是不断地与自己下棋,反复地下,永不停歇。

| 深度学习,给人工智能以璀璨的未来深度学习使得机器学习能够实现众多的应用,并拓展了人工智能的领域范围。深度学习摧枯拉朽般地实现了各种任务,使得似乎所有的机器辅助功能都变为可能。

无人驾驶汽车,预防性医疗保健,甚至是更好的电影推荐,都近在眼前,或者即将实现。人工智能就在现在,就在明天。有了深度学习,人工智能甚至可以达到我们畅想的科幻小说一般。

你的C-3PO我拿走了,你有你的终结者就好了。

人工智能,机器学习和深度学习之间的区别和联系

有人说,人工智能(AI)是未来,人工智能是科幻,人工智能也是我们日常生活中的一部分。这些评价可以说都是正确的,就看你指的是哪一种人工智能。

今年早些时候,GoogleDeepMind的AlphaGo打败了韩国的围棋大师李世乭九段。

在媒体描述DeepMind胜利的时候,将人工智能(AI)、机器学习(machinelearning)和深度学习(deeplearning)都用上了。

这三者在AlphaGo击败李世乭的过程中都起了作用,但它们说的并不是一回事。今天我们就用最简单的方法——同心圆,可视化地展现出它们三者的关系和应用。

如上图,人工智能是最早出现的,也是最大、最外侧的同心圆;其次是机器学习,稍晚一点;最内侧,是深度学习,当今人工智能大爆炸的核心驱动。五十年代,人工智能曾一度被极为看好。

之后,人工智能的一些较小的子集发展了起来。先是机器学习,然后是深度学习。深度学习又是机器学习的子集。深度学习造成了前所未有的巨大的影响。

从概念的提出到走向繁荣1956年,几个计算机科学家相聚在达特茅斯会议(DartmouthConferences),提出了“人工智能”的概念。

其后,人工智能就一直萦绕于人们的脑海之中,并在科研实验室中慢慢孵化。之后的几十年,人工智能一直在两极反转,或被称作人类文明耀眼未来的预言;或者被当成技术疯子的狂想扔到垃圾堆里。

坦白说,直到2012年之前,这两种声音还在同时存在。过去几年,尤其是2015年以来,人工智能开始大爆发。很大一部分是由于GPU的广泛应用,使得并行计算变得更快、更便宜、更有效。

当然,无限拓展的存储能力和骤然爆发的数据洪流(大数据)的组合拳,也使得图像数据、文本数据、交易数据、映射数据全面海量爆发。

让我们慢慢梳理一下计算机科学家们是如何将人工智能从最早的一点点苗头,发展到能够支撑那些每天被数亿用户使用的应用的。

| 人工智能(ArtificialIntelligence)——为机器赋予人的智能早在1956年夏天那次会议,人工智能的先驱们就梦想着用当时刚刚出现的计算机来构造复杂的、拥有与人类智慧同样本质特性的机器。

这就是我们现在所说的“强人工智能”(GeneralAI)。这个无所不能的机器,它有着我们所有的感知(甚至比人更多),我们所有的理性,可以像我们一样思考。

人们在电影里也总是看到这样的机器:友好的,像星球大战中的C-3PO;邪恶的,如终结者。强人工智能现在还只存在于电影和科幻小说中,原因不难理解,我们还没法实现它们,至少目前还不行。

我们目前能实现的,一般被称为“弱人工智能”(NarrowAI)。弱人工智能是能够与人一样,甚至比人更好地执行特定任务的技术。例如,Pinterest上的图像分类;或者Facebook的人脸识别。

这些是弱人工智能在实践中的例子。这些技术实现的是人类智能的一些具体的局部。但它们是如何实现的?这种智能是从何而来?这就带我们来到同心圆的里面一层,机器学习。

| 机器学习——一种实现人工智能的方法机器学习最基本的做法,是使用算法来解析数据、从中学习,然后对真实世界中的事件做出决策和预测。

与传统的为解决特定任务、硬编码的软件程序不同,机器学习是用大量的数据来“训练”,通过各种算法从数据中学习如何完成任务。机器学习直接来源于早期的人工智能领域。

传统算法包括决策树学习、推导逻辑规划、聚类、强化学习和贝叶斯网络等等。众所周知,我们还没有实现强人工智能。早期机器学习方法甚至都无法实现弱人工智能。

机器学习最成功的应用领域是计算机视觉,虽然也还是需要大量的手工编码来完成工作。

人们需要手工编写分类器、边缘检测滤波器,以便让程序能识别物体从哪里开始,到哪里结束;写形状检测程序来判断检测对象是不是有八条边;写分类器来识别字母“ST-O-P”。

使用以上这些手工编写的分类器,人们总算可以开发算法来感知图像,判断图像是不是一个停止标志牌。这个结果还算不错,但并不是那种能让人为之一振的成功。

特别是遇到云雾天,标志牌变得不是那么清晰可见,又或者被树遮挡一部分,算法就难以成功了。这就是为什么前一段时间,计算机视觉的性能一直无法接近到人的能力。它太僵化,太容易受环境条件的干扰。

随着时间的推进,学习算法的发展改变了一切。

| 深度学习——一种实现机器学习的技术人工神经网络(ArtificialNeuralNetworks)是早期机器学习中的一个重要的算法,历经数十年风风雨雨。

神经网络的原理是受我们大脑的生理结构——互相交叉相连的神经元启发。但与大脑中一个神经元可以连接一定距离内的任意神经元不同,人工神经网络具有离散的层、连接和数据传播的方向。

例如,我们可以把一幅图像切分成图像块,输入到神经网络的第一层。在第一层的每一个神经元都把数据传递到第二层。第二层的神经元也是完成类似的工作,把数据传递到第三层,以此类推,直到最后一层,然后生成结果。

每一个神经元都为它的输入分配权重,这个权重的正确与否与其执行的任务直接相关。最终的输出由这些权重加总来决定。我们仍以停止(Stop)标志牌为例。

将一个停止标志牌图像的所有元素都打碎,然后用神经元进行“检查”:八边形的外形、救火车般的红颜色、鲜明突出的字母、交通标志的典型尺寸和静止不动运动特性等等。

神经网络的任务就是给出结论,它到底是不是一个停止标志牌。神经网络会根据所有权重,给出一个经过深思熟虑的猜测——“概率向量”。

这个例子里,系统可能会给出这样的结果:86%可能是一个停止标志牌;7%的可能是一个限速标志牌;5%的可能是一个风筝挂在树上等等。然后网络结构告知神经网络,它的结论是否正确。

即使是这个例子,也算是比较超前了。直到前不久,神经网络也还是为人工智能圈所淡忘。其实在人工智能出现的早期,神经网络就已经存在了,但神经网络对于“智能”的贡献微乎其微。

主要问题是,即使是最基本的神经网络,也需要大量的运算。神经网络算法的运算需求难以得到满足。

不过,还是有一些虔诚的研究团队,以多伦多大学的GeoffreyHinton为代表,坚持研究,实现了以超算为目标的并行算法的运行与概念证明。但也直到GPU得到广泛应用,这些努力才见到成效。

我们回过头来看这个停止标志识别的例子。神经网络是调制、训练出来的,时不时还是很容易出错的。它最需要的,就是训练。

需要成百上千甚至几百万张图像来训练,直到神经元的输入的权值都被调制得十分精确,无论是否有雾,晴天还是雨天,每次都能得到正确的结果。

只有这个时候,我们才可以说神经网络成功地自学习到一个停止标志的样子;或者在Facebook的应用里,神经网络自学习了你妈妈的脸;又或者是2012年吴恩达(AndrewNg)教授在Google实现了神经网络学习到猫的样子等等。

吴教授的突破在于,把这些神经网络从基础上显著地增大了。层数非常多,神经元也非常多,然后给系统输入海量的数据,来训练网络。在吴教授这里,数据是一千万YouTube视频中的图像。

吴教授为深度学习(deeplearning)加入了“深度”(deep)。这里的“深度”就是说神经网络中众多的层。

现在,经过深度学习训练的图像识别,在一些场景中甚至可以比人做得更好:从识别猫,到辨别血液中癌症的早期成分,到识别核磁共振成像中的肿瘤。

Google的AlphaGo先是学会了如何下围棋,然后与它自己下棋训练。它训练自己神经网络的方法,就是不断地与自己下棋,反复地下,永不停歇。

| 深度学习,给人工智能以璀璨的未来深度学习使得机器学习能够实现众多的应用,并拓展了人工智能的领域范围。深度学习摧枯拉朽般地实现了各种任务,使得似乎所有的机器辅助功能都变为可能。

无人驾驶汽车,预防性医疗保健,甚至是更好的电影推荐,都近在眼前,或者即将实现。人工智能就在现在,就在明天。有了深度学习,人工智能甚至可以达到我们畅想的科幻小说一般。

你的C-3PO我拿走了,你有你的终结者就好了。

人工智能,机器学习与深度学习,到底是什么关系

有人说,人工智能(AI)是未来,人工智能是科幻,人工智能也是我们日常生活中的一部分。这些评价可以说都是正确的,就看你指的是哪一种人工智能。

今年早些时候,GoogleDeepMind的AlphaGo打败了韩国的围棋大师李世乭九段。

在媒体描述DeepMind胜利的时候,将人工智能(AI)、机器学习(machinelearning)和深度学习(deeplearning)都用上了。

这三者在AlphaGo击败李世乭的过程中都起了作用,但它们说的并不是一回事。今天我们就用最简单的方法——同心圆,可视化地展现出它们三者的关系和应用。

向左转|向右转如上图,人工智能是最早出现的,也是最大、最外侧的同心圆;其次是机器学习,稍晚一点;最内侧,是深度学习,当今人工智能大爆炸的核心驱动。五十年代,人工智能曾一度被极为看好。

之后,人工智能的一些较小的子集发展了起来。先是机器学习,然后是深度学习。深度学习又是机器学习的子集。深度学习造成了前所未有的巨大的影响。

从概念的提出到走向繁荣1956年,几个计算机科学家相聚在达特茅斯会议(DartmouthConferences),提出了“人工智能”的概念。

其后,人工智能就一直萦绕于人们的脑海之中,并在科研实验室中慢慢孵化。之后的几十年,人工智能一直在两极反转,或被称作人类文明耀眼未来的预言;或者被当成技术疯子的狂想扔到垃圾堆里。

坦白说,直到2012年之前,这两种声音还在同时存在。过去几年,尤其是2015年以来,人工智能开始大爆发。很大一部分是由于GPU的广泛应用,使得并行计算变得更快、更便宜、更有效。

当然,无限拓展的存储能力和骤然爆发的数据洪流(大数据)的组合拳,也使得图像数据、文本数据、交易数据、映射数据全面海量爆发。

让我们慢慢梳理一下计算机科学家们是如何将人工智能从最早的一点点苗头,发展到能够支撑那些每天被数亿用户使用的应用的。

| 人工智能(ArtificialIntelligence)——为机器赋予人的智能向左转|向右转早在1956年夏天那次会议,人工智能的先驱们就梦想着用当时刚刚出现的计算机来构造复杂的、拥有与人类智慧同样本质特性的机器。

这就是我们现在所说的“强人工智能”(GeneralAI)。这个无所不能的机器,它有着我们所有的感知(甚至比人更多),我们所有的理性,可以像我们一样思考。

人们在电影里也总是看到这样的机器:友好的,像星球大战中的C-3PO;邪恶的,如终结者。强人工智能现在还只存在于电影和科幻小说中,原因不难理解,我们还没法实现它们,至少目前还不行。

我们目前能实现的,一般被称为“弱人工智能”(NarrowAI)。弱人工智能是能够与人一样,甚至比人更好地执行特定任务的技术。例如,Pinterest上的图像分类;或者Facebook的人脸识别。

这些是弱人工智能在实践中的例子。这些技术实现的是人类智能的一些具体的局部。但它们是如何实现的?这种智能是从何而来?这就带我们来到同心圆的里面一层,机器学习。

| 机器学习——一种实现人工智能的方法向左转|向右转机器学习最基本的做法,是使用算法来解析数据、从中学习,然后对真实世界中的事件做出决策和预测。

与传统的为解决特定任务、硬编码的软件程序不同,机器学习是用大量的数据来“训练”,通过各种算法从数据中学习如何完成任务。机器学习直接来源于早期的人工智能领域。

传统算法包括决策树学习、推导逻辑规划、聚类、强化学习和贝叶斯网络等等。众所周知,我们还没有实现强人工智能。早期机器学习方法甚至都无法实现弱人工智能。

机器学习最成功的应用领域是计算机视觉,虽然也还是需要大量的手工编码来完成工作。

人们需要手工编写分类器、边缘检测滤波器,以便让程序能识别物体从哪里开始,到哪里结束;写形状检测程序来判断检测对象是不是有八条边;写分类器来识别字母“ST-O-P”。

使用以上这些手工编写的分类器,人们总算可以开发算法来感知图像,判断图像是不是一个停止标志牌。这个结果还算不错,但并不是那种能让人为之一振的成功。

特别是遇到云雾天,标志牌变得不是那么清晰可见,又或者被树遮挡一部分,算法就难以成功了。这就是为什么前一段时间,计算机视觉的性能一直无法接近到人的能力。它太僵化,太容易受环境条件的干扰。

随着时间的推进,学习算法的发展改变了一切。

| 深度学习——一种实现机器学习的技术向左转|向右转人工神经网络(ArtificialNeuralNetworks)是早期机器学习中的一个重要的算法,历经数十年风风雨雨。

神经网络的原理是受我们大脑的生理结构——互相交叉相连的神经元启发。但与大脑中一个神经元可以连接一定距离内的任意神经元不同,人工神经网络具有离散的层、连接和数据传播的方向。

例如,我们可以把一幅图像切分成图像块,输入到神经网络的第一层。在第一层的每一个神经元都把数据传递到第二层。第二层的神经元也是完成类似的工作,把数据传递到第三层,以此类推,直到最后一层,然后生成结果。

每一个神经元都为它的输入分配权重,这个权重的正确与否与其执行的任务直接相关。最终的输出由这些权重加总来决定。我们仍以停止(Stop)标志牌为例。

将一个停止标志牌图像的所有元素都打碎,然后用神经元进行“检查”:八边形的外形、救火车般的红颜色、鲜明突出的字母、交通标志的典型尺寸和静止不动运动特性等等。

神经网络的任务就是给出结论,它到底是不是一个停止标志牌。神经网络会根据所有权重,给出一个经过深思熟虑的猜测——“概率向量”。

这个例子里,系统可能会给出这样的结果:86%可能是一个停止标志牌;7%的可能是一个限速标志牌;5%的可能是一个风筝挂在树上等等。然后网络结构告知神经网络,它的结论是否正确。

即使是这个例子,也算是比较超前了。直到前不久,神经网络也还是为人工智能圈所淡忘。其实在人工智能出现的早期,神经网络就已经存在了,但神经网络对于“智能”的贡献微乎其微。

主要问题是,即使是最基本的神经网络,也需要大量的运算。神经网络算法的运算需求难以得到满足。

不过,还是有一些虔诚的研究团队,以多伦多大学的GeoffreyHinton为代表,坚持研究,实现了以超算为目标的并行算法的运行与概念证明。但也直到GPU得到广泛应用,这些努力才见到成效。

我们回过头来看这个停止标志识别的例子。神经网络是调制、训练出来的,时不时还是很容易出错的。它最需要的,就是训练。

需要成百上千甚至几百万张图像来训练,直到神经元的输入的权值都被调制得十分精确,无论是否有雾,晴天还是雨天,每次都能得到正确的结果。

只有这个时候,我们才可以说神经网络成功地自学习到一个停止标志的样子;或者在Facebook的应用里,神经网络自学习了你妈妈的脸;又或者是2012年吴恩达(AndrewNg)教授在Google实现了神经网络学习到猫的样子等等。

吴教授的突破在于,把这些神经网络从基础上显著地增大了。层数非常多,神经元也非常多,然后给系统输入海量的数据,来训练网络。在吴教授这里,数据是一千万YouTube视频中的图像。

吴教授为深度学习(deeplearning)加入了“深度”(deep)。这里的“深度”就是说神经网络中众多的层。

现在,经过深度学习训练的图像识别,在一些场景中甚至可以比人做得更好:从识别猫,到辨别血液中癌症的早期成分,到识别核磁共振成像中的肿瘤。

Google的AlphaGo先是学会了如何下围棋,然后与它自己下棋训练。它训练自己神经网络的方法,就是不断地与自己下棋,反复地下,永不停歇。

| 深度学习,给人工智能以璀璨的未来深度学习使得机器学习能够实现众多的应用,并拓展了人工智能的领域范围。深度学习摧枯拉朽般地实现了各种任务,使得似乎所有的机器辅助功能都变为可能。

无人驾驶汽车,预防性医疗保健,甚至是更好的电影推荐,都近在眼前,或者即将实现。人工智能就在现在,就在明天。有了深度学习,人工智能甚至可以达到我们畅想的科幻小说一般。

你的C-3PO我拿走了,你有你的终结者就好了。

如何使用深度学习开发人工智能应用

如何使用深度学习开发人工智能应用在为工业界的从业者带来理念更新的同时,吴恩达还对自己在人工智能领域的人生经验进行分享。

“我从没试过一次就得出正确的模型架构”吴恩达对自己经历的朴实客观分享,让在场的很多从业者不仅获得技术指导更如同吃了“定心丸”。

NIPS(AdvancesinNeuralInformationProcessingSystems)中文名为“神经信息处理系统进展大会”,是每年12月由NIPS基金会主办的机器学习和神经计算领域的顶级会议,在机器学习领域有着举足轻重的学术影响力。

随着人工智能的高速发展,2016年NIPS的讨论焦点也集中在机器学习与人工智能,并邀请YannLeCun(Facebook人工智能研究室FAIR负责人)、IrinaRish(IBMWatson研究中心成员)等国际专家参与。

其中,百度首席科学家、斯坦福大学计算机科学系和电子工程系副教授吴恩达参与大会教程(tutorial)环节,人气颇高。

由于神经网络(NN)可以扩大规模(scale),甚至是可以无限地扩展,深度学习成为人工智能领域未来发展的大潮流。

对此,吴恩达认为没有人能做到在系统构架(底层)与深度学习(算法)方面都是专家,并针对深度学习技术创业公司的团队建设,分享了其在百度的架构经验。

在深度学习大潮中,端到端学习成为近几年的技术风口,随着技术发展,更纯粹的端对端学习成为了可能。但由于缺少足够大的训练集,直接的端对端学习也有不太奏效的时候。

作为人工智能成果的集大成者,无人车在机器学习领域仍有很大发展空间,吴恩达在演讲中描述了无人驾驶的传统模型:通过图片观测附近的车(cars)与行人(pedestrians),计算出该有的路径规划(plan),然后通过公式/规则判断出应该进行的下一步行动(steering),如果可以直接把图片处理成最终的操作指令可以指数级提高反应速度,带来效率提升。

吴恩达认为,很多企业都没有正确对待训练集误差、人类误差值、测试集误差,三者之间的关系,而在数据合成方面,很多公司又“总想搞个大新闻”。

他建议企业使用unifieddatawarehouse(统一化的数据中心),让数据科学家可以“安心的玩数据”。

并分享了基于人类误差、训练集误差,训练-开发集误差、开发集误差、测试集误差五类误差值的新的处理策略。

在演讲的最后,吴恩达提出了对人工智能的展望,他认为由于现有的有标签数据还远没有被发掘完毕,supervisedlearning(监督学习)将继续快速发展下去,同时unsupervisedlearning(无监督学习)、reinforcementlearning(强化学习)、transferlearning(迁移学习)也将在未来起步。

同时,吴恩达也对现场的从业者提出更具实用性的经验:人工智能产品经理需要选择工程师应该关注的重点,从而让数据集能更准确地模拟出应用场景,简单来说就是寻找用户需求与当今机器学习技术的能力的交集。

深度学习的课程可以在哪看到?

深度学习就是企图把中间的这个“黑箱”打开:目标是什么?根据什么确定了这样的目标?为了达到这个目标我要设计什么样的活动?

01深度学习的必要性改革开放40年,基础教育研究与实践的最大成就之一,就是树立了“学生是教育主体”的观念。但是,在课堂教学中,学生并未真正成为主体,大多数课堂教学也没有发生根本变化。为什么?

因为大多数教学改革尚未抓住教学的根本,对课堂教学的研究还只停留在文本上、观念上,没有落到实际行动中。开展深度学习的研究与实践正是把握教学本质的一种积极努力,是我国课程教学改革走向深入的必需。

当前,智能机器尤其是智能化穿戴设备的大量出现,部分传统职业已被替代,甚至有人认为教师和教学也可能被替代而消失。在这样的情形下,我们不得不思考:在智能化时代,真的不需要教学了吗?真的不需要教师了吗?

如果把教学仅仅看作是知识的刻板传递的话,那么,智能技术完全可以胜任,教学和教师完全可以被智能机器替代了。

借用马云(阿里巴巴集团创始人)的话说,在一个把机器变成人的社会,如果教学还在把人变成机器,是没有出路的。蒂姆·库克(苹果公司现任CEO)说:“我不担心机器会像人一样思考,我担心的是人会像机器一样思考。

”正是由于智能机器的出现和挑战,我们必须严肃思考:教学究竟应该是怎么样的?教学存在的意义和价值究竟是什么?事实上,教学的价值和意义一直都是培养人,但智能时代让它的意义和价值更加鲜明,不能再被忽视。

因此,当机器已不只以存储为功能,而开始像人一样思考的时候,我们清醒地意识到:教学绝不是知识传递,甚至知识学习本身也只是培养人的手段,教学的最终目的是实现学生的全面发展。

因此,帮助学生通过知识学习、在知识学习中形成核心素养,在知识学习中成长和发展,成为教学的首要任务。02深度学习的内涵什么是深度学习?可以从两个层面来理解。

一个是初级层面,是针对教学实践领域的弊端提出来的,是针砭时弊的一种提法。深度学习是针对实践中存在大量的机械学习、死记硬背、知其然而不知其所以然的浅层学习现象而提出的。这里的“深度”是指学生的深度学习。

我们并不强求教师必须采用某种固定的模式或方法,而是强调,教师要用恰当的方法去引发、促进、提升学生的深度学习。在这个意义上,深度学习是浅层学习的反面,是针砭时弊的。但是,深度学习绝不只停留于这个层面。

深度学习还有另一层面的理解,即高级的层面:深度学习并不只是为了促进学生高级认知和高阶思维,而是指向立德树人,指向发展核心素养,指向培养全面发展的人。

因此,深度学习强调动心用情,强调与人的价值观培养联系在一起。每个教师都应该想:我今天的教学会给学生造成什么样的影响?能够让他有善良、正直的品性吗?会让他热爱学习吗?会影响他对未来的积极期待吗?

……总之,深度学习的目的是要培养能够“百尺竿头更进一步”、能够创造美好生活的人,是生活在社会历史进行中的、具体的人,而非抽象意义上的有高级认知和高阶思维的偶然个体。

综上,我们所说的深度学习,必须满足以下四个要点:▲深度学习是指教学中学生的学习而非一般意义上学习者的自学,因而特别强调教师的重要作用,强调教师对学生学习的引导和帮助。

▲深度学习的内容是有挑战性的人类已有认识成果。

也就是说,需要深度加工、深度学习的内容一定是具有挑战性的内容,通常是那些构成一门学科基本结构的基本概念和基本原理,而事实性的、技能性的知识通常并不需要深度学习。

在这个意义上,深度学习的过程也是帮助学生判断和建构学科基本结构的过程。

▲深度学习是学生感知觉、思维、情感、意志、价值观全面参与、全身心投入的活动,是作为学习活动主体的社会活动,而非抽象个体的心理活动。

▲深度学习的目的指向具体的、社会的人的全面发展,是形成学生核心素养的基本途径。

根据这四个要点,我们给深度学习下了一个界定:“所谓深度学习,就是指在教师引领下,学生围绕着具有挑战性的学习主题,全身心积极参与、体验成功、获得发展的有意义的学习过程。

在这个过程中,学生掌握学科的核心知识,理解学习的过程,把握学科的本质及思想方法,形成积极的内在学习动机、高级的社会性情感、积极的态度、正确的价值观,成为既具独立性、批判性、创造性又有合作精神、基础扎实的优秀的学习者,成为未来社会历史实践的主人”。

03课堂教学如何实现深度学习?1实现经验与知识的相互转化“经验”与“知识”常被看作是彼此对立的一对概念,事实上却有着紧密关联。深度学习倡导通过“联想与结构”的活动将二者进行关联、转化。

简单来说,“联想与结构”是指学生通过联想,回想已有的经验,使当前学习内容与已有的经验建立内在关联,并实现结构化;而结构化了的知识(与经验)在下一个学习活动中才能被联想、调用。

在这个意义上,“联想与结构”所要处理的正是知识与经验的相互转化,即经验支持知识的学习,知识学习要结构化、内化为个人的经验。

也就是说,学生个体经验与人类历史知识不是对立、矛盾的,而是相互关联的,教师要找到它们的关联处、契合处,通过引导学生主动“联想与结构”的活动,让学生的经验凸显意义,让外在于学生的知识与学生建立起生命联系,使经验与知识相互滋养,成为学生自觉发展的营养。

2让学生成为真正的教学主体究竟如何才能让学生真正成为教学主体呢?我们提出了“两次倒转”的学习机制。为什么要提“两次倒转”?

因为,相对于人类最初发现知识的过程而言,从根本上说,教学是一个“倒过来”的活动,即学生不必经历实践探索和试误的过程,而可以直接把人类已有的认识成果作为认识对象、学习内容,这正是人类能够持续进步的根本原因,是人类的伟大创举。

但是,如果把教学的根本性质(即“倒过来”)作为教学过程本身,那就可能造成教学中的灌输,强调反复记忆和“刷题”,无视学生与知识的心理距离和能力水平,致使学生产生厌学情绪。

因此,在强调教学的根本性质是“倒过来”的基础上,要关注学生的能力水平、心理感受,要将“倒过来”的过程重新“倒回去”,即:通过教师的引导和帮助,学生能够主动去“经历”知识发现、发展(当然不是真正地经历,而是模拟地、简约地去经历)的过程。

在这个过程中,知识真正成为学生能够观察、思考、探索、操作的对象,成为学生活动的客体,学生成为了教学的主体。

3帮助学生通过深度加工把握知识本质学生活动与体验的任务,主要不是把握那些无内在关联的碎片性的、事实性的信息,而是要把握有内在关联的原理性知识,把握人类历史实践的精华。

因此,学生的学习主要不是记忆大量的事实,而是要通过主动活动去把握知识的本质。知识的本质需要通过典型的变式来把握,即通过典型的深度活动来加工学习对象,从变式中把握本质。

同样,一旦把握了知识的本质便能够辨别所有的变式,举一反三、闻一知十。“一”就是本质、本原、原理,基本概念。当然,本质与变式需要学生对学习对象进行深度加工,这是深度学习要特别重视的地方。

4在教学活动中模拟社会实践一般而言,学生是否能把所学知识应用到别的情境中是验证教学效果的常用手段,即学生能否迁移、能否应用。

深度学习也强调迁移和应用,但我们不仅强调学生能把知识应用到新的情境中,更强调迁移与应用的教育价值。

我们把“迁移与应用”看作学生在学校阶段,即在学生正式进入社会历史实践过程之前,能够在教学情境中模拟体会社会实践的“真实过程”,形成积极的情感态度价值观,因而我们强调“迁移与应用”的综合教育价值,既综合运用知识又实现综合育人的价值,而不仅仅是某个学科知识简单的迁移。

它比一般的“迁移与应用”更广阔一些,学生跟社会的联系更强一些。5引导学生对知识的发展过程进行价值评价教学要引导学生对自己所学的知识及知识发现、发展的过程进行价值评价。例如,食物的保鲜与防腐。

过去学这个知识,学生通常要掌握“食物是会腐烂的,想让食物保鲜就要加防腐剂”这个知识点,甚至初步掌握防腐技术。但那仅仅是作为一个知识点、一个技能来掌握的。

深度学习要让学生讨论,是不是所有的食品都可以用防腐剂来保鲜?是不是防腐剂用得越多越好?这就是一种价值伦理的判断。深度学习不仅仅是学知识,还要让学生在学习知识的过程中对所学的知识进行价值判断。

不仅仅是对知识本身,还要对知识发现、发展的过程以及学习知识的过程本身进行价值判断。04深度学习的实践模型图1是深度学习的实践模型。它不是知识单元、内容单元,而是学习单元,是学生学习活动的基本单位。

过去我们的教学知道要学什么,也知道要考什么,但中间的环节,例如学习目标是怎么定的,活动是怎么展开的,我们明确知道的东西很少,所以教学中间的两个环节是“黑箱”。

深度学习就是企图把中间的这个“黑箱”打开:目标是什么?根据什么确定了这样的目标?为了达到这个目标我要设计什么样的活动?图1中的箭头看起来像是单向的,实际上应该有无数条线条,表现不断循环往复的过程。

图1中的四个形式要素跟前面讲的理论框架是内在一致的,单元学习主题实际上就是“联想与结构”的结构化的部分。单元学习目标,就是要把握知识的本质。单元学习活动是活动与体验、迁移与应用的一个部分。

因此,单元学习主题,就是从“知识单元”到“学习单元”,立足学生的学习与发展,以大概念的方式组织“学习”单元,在学科逻辑中体现较为丰富、立体的活动性和开放性。

过去的学科通常都是封闭的,现在要把它变成一个开放的、未完成的东西,有了未完成性和开放性,为学生提供探究的空间,有重新发现的空间。

单元学习目标是从学生的成长、发展来确定和表述;要体现学科育人价值,彰显学科核心素养及其水平进阶。单元学习活动要注重几个特性。首先是规划性和整体性(整体设计),体现着深度学习强调整体把握的特点。

其次是实践性和多样性,这里强调的是学生主动活动的多样性。再次是综合性和开放性,即知识的综合运用、开放性探索。最后是逻辑性和群体性,主要指学科的逻辑线索以及学生之间的合作互助。

持续性评价的目的在于了解学生学习目标达成情况、调控学习过程、为教学改进服务。持续性评价形式多样,主要为形成性评价,是学生学习的重要激励手段。实施持续性评价要预先制定详细的评价方案。

总之,对深度学习的研究,是一个对教学规律持续不断的、开放的研究过程,是对以往一切优秀教学实践的总结、提炼、提升和再命名,需要更多的教师和学者共同的努力和探索。

深度学习和机器学习的区别是什么

1、机器学习是一种实现人工智能的方法,深度学习是一种实现机器学习的技术。2、深度学习本来并不是一种独立的学习方法,其本身也会用到有监督和无监督的学习方法来训练深度神经网络。

但由于近几年该领域发展迅猛,一些特有的学习手段相继被提出(如残差网络),因此越来越多的人将其单独看作一种学习的方法。

3、机器学习最基本的做法,是使用算法来解析数据、从中学习,然后对真实世界中的事件做出决策和预测。

与传统的为解决特定任务、硬编码的软件程序不同,机器学习是用大量的数据来“训练”,通过各种算法从数据中学习如何完成任务。

拓展资料:1、机器学习直接来源于早期的人工智能领域,传统的算法包括决策树、聚类、贝叶斯分类、支持向量机、EM、Adaboost等等。

从学习方法上来分,机器学习算法可以分为监督学习(如分类问题)、无监督学习(如聚类问题)、半监督学习、集成学习、深度学习和强化学习。

传统的机器学习算法在指纹识别、基于Haar的人脸检测、基于HoG特征的物体检测等领域的应用基本达到了商业化的要求或者特定场景的商业化水平,但每前进一步都异常艰难,直到深度学习算法的出现。

2、最初的深度学习是利用深度神经网络来解决特征表达的一种学习过程。深度神经网络本身并不是一个全新的概念,可大致理解为包含多个隐含层的神经网络结构。

为了提高深层神经网络的训练效果,人们对神经元的连接方法和激活函数等方面做出相应的调整。其实有不少想法早年间也曾有过,但由于当时训练数据量不足、计算能力落后,因此最终的效果不尽如人意。

深度学习摧枯拉朽般地实现了各种任务,使得似乎所有的机器辅助功能都变为可能。无人驾驶汽车,预防性医疗保健,甚至是更好的电影推荐,都近在眼前,或者即将实现。

人工智能,机器学习和深度学习的区别是什么

为了搞清三者关系,我们来看一张图:如图所示:人工智能最大,此概念也最先问世;然后是机器学习,出现的稍晚;最后才是深度学习。

从低潮到繁荣自从1956年计算机科学家们在达特茅斯会议(DartmouthConferences)上确认人工智能这个术语以来,人们就不乏关于人工智能奇思妙想,研究人员也在不遗余力地研究。

在此后的几十年间,人工智能先是被捧为人类文明光明未来的钥匙,后又被当作过于自大的异想天开而抛弃。但是在过去几年中,人工智能出现了爆炸式的发展,尤其是2015年之后。

大部分原因,要归功于图形处理器(GPU)的广泛应用,使得并行处理更快、更便宜、更强大。

另外,人工智能的发展还得益于几乎无限的存储空间和海量数据的出现(大数据运动):图像、文本、交易数据、地图数据,应有尽有。下面我们从发展的历程中来一一展开对人工智能、机器学习和深度学习的深度学习。

人工智能人工智能先驱们在达特茅斯开会时,心中的梦想是希望通过当时新兴的计算机,打造拥有相当于人类智能的复杂机器。

这就是我们所说的“通用人工智能”(GeneralAI)概念,拥有人类五感(甚至更多)、推理能力以及人类思维方式的神奇机器。

在电影中我们已经看过无数这样的机器人,对人类友好的C-3PO,以及人类的敌人终结者。通用人工智能机器至今只存在于电影和科幻小说里,理由很简单:我们还实现不了,至少目前为止。

我们力所能及的,算是“弱人工智能”(NarrowAI):执行特定任务的水平与人类相当,甚至超越人类的技术。现实中有很多弱人工智能的例子。这些技术有人类智能的一面。但是它们是如何做到的?智能来自哪里?

这就涉及到下一个同心圆:机器学习。机器学习机器学习是实现人工智能的一种方法。机器学习的概念来自早期的人工智能研究者,已经研究出的算法包括决策树学习、归纳逻辑编程、增强学习和贝叶斯网络等。

简单来说,机器学习就是使用算法分析数据,从中学习并做出推断或预测。与传统的使用特定指令集手写软件不同,我们使用大量数据和算法来“训练”机器,由此带来机器学习如何完成任务。

许多年来,计算机视觉一直是机器学习最佳的领用领域之一,尽管还需要大量的手动编码才能完成任务。

研究者会手动编写一些分类器(classifier),如边缘检测筛选器,帮助程序辨别物体的边界;图形检测分类器,判断物体是否有八个面;以及识别“S-T-O-P”的分类器。

在这些手动编写的分类器的基础上,他们再开发用于理解图像的算法,并学习如何判断是否有停止标志。但是由于计算机视觉和图像检测技术的滞后,经常容易出错。深度学习深度学习是实现机器学习的一种技术。

早期机器学习研究者中还开发了一种叫人工神经网络的算法,但是发明之后数十年都默默无闻。神经网络是受人类大脑的启发而来的:神经元之间的相互连接关系。

但是,人类大脑中的神经元可以与特定范围内的任意神经元连接,而人工神经网络中数据传播要经历不同的层,传播方向也不同。举个例子,你可以将一张图片切分为小块,然后输入到神经网络的第一层中。

在第一层中做初步计算,然后神经元将数据传至第二层。由第二层神经元执行任务,依次类推,直到最后一层,然后输出最终的结果。每个神经元都会给其输入指定一个权重:相对于执行的任务该神经元的正确和错误程度。

最终的输出由这些权重共同决定。因此,我们再来看看上面提到的停止标志示例。一张停止标志图像的属性,被一一细分,然后被神经元“检查”:形状、颜色、字符、标志大小和是否运动。

神经网络的任务是判断这是否是一个停止标志。它将给出一个“概率向量”(probabilityvector),这其实是基于权重做出的猜测结果。

在本文的示例中,系统可能会有86%的把握认定图像是一个停止标志,7%的把握认为是一个限速标志,等等。网络架构然后会告知神经网络其判断是否正确。

不过,问题在于即使是最基础的神经网络也要耗费巨大的计算资源,因此当时不算是一个可行的方法。

不过,以多伦多大学GeoffreyHinton教授为首的一小批狂热研究者们坚持采用这种方法,最终让超级计算机能够并行执行该算法,并证明该算法的作用。

如果我们回到停止标志那个例子,很有可能神经网络受训练的影响,会经常给出错误的答案。这说明还需要不断的训练。

它需要成千上万张图片,甚至数百万张图片来训练,直到神经元输入的权重调整到非常精确,几乎每次都能够给出正确答案。

不过值得庆幸的是Facebook利用神经网络记住了你母亲的面孔;吴恩达2012年在谷歌实现了可以识别猫的神经网络。

如今,在某些情况下,通过深度学习训练过的机器在图像识别上表现优于人类,这包括找猫、识别血液中的癌症迹象等。谷歌的AlphaGo学会了围棋,并为比赛进行了大量的训练:不断的和自己比赛。

总结人工智能的根本在于智能,而机器学习则是部署支持人工智能的计算方法。简单的将,人工智能是科学,机器学习是让机器变得更加智能的算法,机器学习在某种程度上成就了人工智能。

本文作者MichaelCopeland曾是WIRED编辑,现在是硅谷知名投资机构AndreessenHorowitz的合伙人。

吴恩达 深度神经网络,吴恩达神经网络课程相关推荐

  1. 吴恩达.深度学习系列-C4卷积神经网络-W2深度卷积模型案例

    吴恩达.深度学习系列-C4卷积神经网络-W2深度卷积模型案例 (本笔记部分内容直接引用redstone的笔记http://redstonewill.com/1240/.原文整理的非常好,引入并添加我自 ...

  2. 吴恩达深度学习之四《卷积神经网络》学习笔记

    一.卷积神经网络 1.1 计算机视觉 举了几个例子,可以完成什么样的任务 最重要的是特征向量太大了,比如分辨率1000 x 1000 的彩色图片,三个颜色通道,维数是 3000000 意味着隐藏层第一 ...

  3. 吴恩达深度学习 | (12) 改善深层神经网络专项课程第三周学习笔记

    课程视频 第三周PPT汇总 吴恩达深度学习专项课程共分为五个部分,本篇博客将介绍第二部分改善深层神经网络专项的第三周课程:超参数调试.Batch Normalization和深度学习框架. 目录 1. ...

  4. 吴恩达深度学习 | (20) 序列模型专项课程第一周学习笔记

    课程视频 第一周PPT汇总 吴恩达深度学习专项课程共分为五个部分,本篇博客将介绍第五部分序列模型专项的第一周课程:循环序列模型. 目录 1. 为什么选择序列模型? 2. 数学符号 3. 循环神经网络模 ...

  5. 疯狂为《英伟达深度学习学院半日免费初级课程》打Call

    2017年11月5号,由英伟达深度学习学院.浙江理工大学主办,由丽台(上海)信息科技有限公司.LeadAI学院承办的<英伟达深度学习学院半日初级培训课程(免费)>在百年历史的浙理校内成功举 ...

  6. 吴恩达深度学习笔记- lesson4 卷积神经网络

    文章目录 Week 1 卷积神经网络基础 4.1.1 计算机视觉(Computer vision) 4.1.2 边缘检测示例(Edge detection example) 4.1.3 更多边缘检测内 ...

  7. 吴恩达深度学习 —— 4.1 深层神经网络

    什么是深度学习网络,我们已经学过了逻辑回归,并且见过了单隐层神经网络,下图是一个双隐层神经网络,以及一个五隐层的神经网络的例子. 我们说逻辑回归是一个浅层模型,浅层或是深层是一个程度的问题,要记住当我 ...

  8. 吴恩达深度学习 4.1 卷积神经网络-卷积神经网络基础

    1. 知识点 计算机视觉:图片分类.目标检测.图片风格迁移等 对于小尺寸图片,可以用深度神经网络模型学习预测.但对于大尺寸图片,输入数据规模大,用深度神经网络会有非常多的参数需要学习,不再合适. 卷积 ...

  9. 吴恩达深度学习笔记2-Course1-Week2【神经网络基础:损失函数、梯度下降】

    神经网络基础:损失函数.梯度下降 本篇以最简单的多个输入一个输出的1层神经网络为例,使用logistic regression讲解了神经网络的前向反向计算(forward/backward propa ...

  10. 吴恩达深度学习 —— 3.3 计算神经网络的输出

    如图是一个两层的神经网络,让我们更深入地了解神经网络到底在计算什么. 我们之前说过逻辑回归,下图中的圆圈代表了回归计算的两个步骤,首先按步骤计算出z,然后在第二部计算激活函数,就是函数sigmoid( ...

最新文章

  1. 性能提升3倍的树莓派4,被爆设计缺陷!
  2. 海思全力部署智能城市NB-IoT应用
  3. 单网卡部署WEB+Mail+FTP+ISA服务器之四:局域网内部署FTP和winwebmail服务器
  4. 如何用互联网上的广告来赚取广告费——有点吹牛吗?
  5. VHDL移位寄存器的设计与实现
  6. rest开发_REST 101开发人员专用
  7. php微信模板信息发送的代码例子,微信模板消息发送样例
  8. c语言定义一个字母的范围,C语言学习知识程序设计试卷及其规范标准答案
  9. 花5000元买2天训练营,年轻人正在「高价买觉睡」
  10. matlab实现qr分解
  11. 深入理解Android音频框架AudioTrack到AudioFlinger及Mix过程
  12. MyEclipse编码设置
  13. 广数系统加工中心编程_数控加工中心编程师傅亲述:提升编程水平的建议
  14. 一文62页PPT读懂中国供应链金融
  15. 信道估计算法matlab代码汇总
  16. 名词后面用过去分词的具体用法是怎么样的?
  17. PD快充协议JD6606S资料
  18. 【一起学系列】之迭代器组合:虽然有点用不上啦
  19. 无线模块数据加密,反码校验,发送字符串ABCDEFGHIJKLMNOP LED频闪
  20. 微博营销有什么优势与缺点?如何利用微博开展营销?

热门文章

  1. 2012年财富世界500强排行榜
  2. Visual C++ 2015 Redistributable安装失败,错误代码0x80240017?
  3. 云巡店php源码,云巡店™〡PC端后台管理员设置 讲解视频(下)
  4. K8S以及Kubesphere离线部署方案
  5. Circos从入门到精通
  6. java 判断手机运营商_如何用java判断手机号运营商?
  7. 网页无法访问怎么解决(已解决)
  8. 1到100的和(C)
  9. node.js版本不同,跑不起项目(个人笔记)
  10. 【应用推荐】如何选择适合自己的笔记应用?附热门笔记应用上手总结