这是2019年5月14日Hinton在北大做的远程讲座

Abstract

In 2006, there was a resurgence of interest in deep neural networks. This was triggered by the discovery that there was a simple and effective way to pre-train deep networks as generative models of unlabeled data. The pre-trained networks could then be fine-tuned discriminatively to give excellent performance on labeled data. In this lecture, I will describe the pre-training procedure used for Deep Belief Nets and show how it evolved from an earlier training procedure for Boltzmann machines that was theoretically elegant but too inefficient to be practical. I will also show how the pre-training procedure overcame a major practical problem in training densely connected belief nets.

2006年,人们对深部神经网络的兴趣重新抬头。这是由于发现有一种简单而有效的方法将深层网络预训练为未标记数据的生成模型而引发的。然后,可以对经过预先培训的网络进行有区别的微调,以在标记的数据上提供出色的性能。在这堂课中,我将描述用于深度信念网的预培训程序,并展示它是如何从早期的Boltzmann机器培训程序演变而来的,Boltzmann机器在理论上很优雅,但效率太低,不实用。我还将展示训练前的程序如何克服训练紧密相连的信念网中的一个重大实际问题。

Biography

Geoffrey Hinton received his PhD in Artificial Intelligence from Edinburgh in 1978. After five years as a faculty member at Carnegie-Mellon he became a fellow of the Canadian Institute for Advanced Research and moved to the Department of Computer Science at the University of Toronto where he is now an Emeritus Distinguished Professor. He is also a Vice President & Engineering Fellow at Google and Chief Scientific Adviser of the Vector Institute.

Geoffrey Hinton was one of the researchers who introduced the backpropagation algorithm and the first to use backpropagation for learning word embeddings. His other contributions to neural network research include Boltzmann machines, distributed representations, time-delay neural nets, mixtures of experts, variational learning and deep learning. His research group in Toronto made major breakthroughs in deep learning that revolutionized speech recognition and object classification.

Geoffrey Hinton is a fellow of the UK Royal Society, a foreign member of the US National Academy of Engineering and a foreign member of the American Academy of Arts and Sciences. His awards include the David E. Rumelhart prize, the IJCAI award for research excellence, the Killam prize for Engineering, the IEEE Frank Rosenblatt medal, the IEEE James Clerk Maxwell Gold medal, the NEC C&C award, the BBVA award, the Turing award, and the NSERC Herzberg Gold Medal which is Canada's top award in Science and Engineering.

杰弗里·辛顿于1978年从爱丁堡获得了人工智能博士学位。在卡内基梅隆大学当了五年的教员后,他成为了加拿大高级研究所的研究员,并搬到了多伦多大学计算机科学系,现在他是一位退休的杰出教授。他还是谷歌的副总裁兼工程研究员,也是矢量研究所的首席科学顾问。

杰弗里·辛顿(geoffrey hinton)是研究者之一,他引入了反向传播算法,并首次使用反向传播来学习单词嵌入。他对神经网络研究的其他贡献包括玻尔兹曼机器、分布式表示、时滞神经网络、专家混合、变分学习和深度学习。他在多伦多的研究小组在深入学习方面取得了重大突破,彻底改变了语音识别和对象分类。

杰弗里·辛顿是英国皇家学会会员,美国国家工程院外籍院士,美国艺术与科学院外籍院士。他的奖项包括大卫E.鲁梅尔哈特奖、ijcai杰出研究奖、基拉姆工程奖、IEEE Frank Rosenblatt奖、IEEE James Clerk Maxwell金奖、NEC C C&C奖、BBVA奖、图灵奖和加拿大科学与工程最高奖NSERC Herzberg金奖。

深度置信网络_人工智能深度学习之父Hinton深度置信网络北大最新演讲(含PPT)...相关推荐

  1. 深度信念网络_理论优美的深度信念网络,Hinton老爷子北大最新演讲

    深度信念网络曾照亮了深度学习的前进之路,今天,Hinton 通过远程视频演讲,再一次为我们展现了DBN的思想与理论之美. 2006年,研究者对深度神经网络的兴趣再度复兴,而这主要归功于Hinton等人 ...

  2. 深度学习之父Hinton:下一代神经网络

    2020-07-28 20:42:16 作者 | 青暮.陈大鑫 编辑 | 丛 末 SIGIR是一个展示信息检索领域中各种新技术和新成果的重要国际论坛,若非疫情影响,今年本定于中国西安市举行.7月25日 ...

  3. ai生成图片是什么技术_人工智能如何学习生成猫的图片

    ai生成图片是什么技术 by Thomas Simonini 通过托马斯·西蒙尼(Thomas Simonini) 人工智能如何学习生成猫的图片 (How AI can learn to genera ...

  4. 理论优美的深度信念网络,Hinton老爷子北大最新演讲

    https://www.toutiao.com/a6690758262603645453/ 深度信念网络曾照亮了深度学习的前进之路,今天,Hinton 通过远程视频演讲,再一次为我们展现了DBN的思想 ...

  5. 突发:深度学习之父Hinton为了警告AI的风险,不惜从谷歌离职!

    ‍数据智能产业创新服务媒体 --聚焦数智 · 改变商业 今天,AI领域发生了一件标志性事件.那就是Hinton 为了能更自由的表达对AI失控的担忧,不惜从工作了10年的谷歌离职,可见他真的深切的感受到 ...

  6. 人工智能python编程具体做什么_人工智能主要学习什么编程?

    展开全部 人工智能主要学习Python相关的编程.Python是一种解释型脚本语言,可以应用于人工智能.32313133353236313431303231363533e59b9ee7ad943133 ...

  7. 人工智能ai 学习_人工智能中学习代理的要素

    人工智能ai 学习 As already discussed, the Learning agents have the capability to improve their knowledge b ...

  8. k均值例子 数据挖掘_人工智能、数据挖掘、机器学习和深度学习的关系

    一.人工智能 人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器. 实际应用比如:机器视觉,指纹识别,人脸识别,视网膜识别,虹膜识别,掌纹识 ...

  9. html实体编码_多视角学习 | 当自动编码器“遇上”自动编码网络

    作者 | 张泽宇 编辑 | 肖棠 李仲深 今天给大家介绍天津大学张长青教授等人在CVPR2019上发表的文章"AE2-Nets: Autoencoder in Autoencoder Net ...

最新文章

  1. js插件---IUpload文件上传插件(包括图片)
  2. linux ls mv,Linux基本命令总结一(ls,cp,rm,mv,mkdir,rmdir,cd)
  3. 零压力学python_《零压力学Python》 之 第一章知识点归纳
  4. FC3服务器配置一条龙
  5. Android 基础概念了解
  6. JSP的文件上传处理
  7. 的引用_懵!啥是Java软引用、弱引用、虚引用?
  8. java 服务端重复提交_java 服务器端验证重复提交
  9. cisco路由器设置用户名和密码的几种方式
  10. matlab T检验(ttest,ttest2)
  11. 重新思考路易斯维尔足球品牌
  12. Linux mail 配置
  13. 我们穷极一生,究竟追寻的是什么?
  14. 如何使用keepalive实现虚拟IP
  15. ice 的 Nonmutating 和 Idempotent
  16. electron-rebuild
  17. 字节跳动-数据分析-实习面经
  18. 建立Baseline之repo,manifest
  19. Ubuntu16.04+caffe+DIGITS的安装配置指南
  20. 配置PPPOE拨号和固定IP上网-从零开始学RouterOS系列02

热门文章

  1. There's no Qt version assigned to this project for platform Win32/Win64
  2. Udacity机器人软件工程师课程笔记(二十八) - 卷积神经网络实例 - Fashion-MNIST数据集
  3. 解决360浏览器偶发性会闪屏一下黑色的背景
  4. 在Ubuntu 14.04 64bit上为Sublime text 3安装搜狗拼音输入法
  5. 在Ubuntu 14.04和CentOS上安装boost1.55二进制包
  6. Blender中的多平面动画学习教程
  7. 在3ds Max中使用V-Ray 5渲染引擎视频教程
  8. RTMP协议中的Chunk Stream ID (CID)的作用
  9. 菜单样式1:鼠标悬停向下弹出列表
  10. 一个6年的菜鸟,在4年之前做的一些功能(二)