夏乙 李根 发自 凹非寺
量子位 出品 | 公众号 QbitAI



22岁时,你在干嘛?

这两天,现任Google AI掌门,传奇一般的Jeff Dean,再次收获膜拜和引发热议。全因他的本科毕业论文首次曝光。

这篇论文只有8页。

却成为1990年的最优等本科论文,被明尼苏达大学图书馆保存至今。

同时这篇论文表明,整整28年前,Jeff Dean已经在用C语言,为神经网络编写并行计算的代码。

拜Jeff Dean教的众人又沸腾了。

老论文,新热议

有位大概很年轻的网友,看了论文之后在HackerNews上发出感慨:不可思议,Jeff Dean在1990年就开始对神经网络感兴趣。

一句话,引来众多科普和追忆。总结起来,就是当时神经网络正当红。

有人感慨:“神经网络那时候是一件大事,在1980年代后期非常热门,那真是一段美好的时光。”

1990年,正值第二次AI寒冬之前,当时,神经网络、Prolog、LISP语言、模糊逻辑都正在流行,ANN还没有被SVM等超越,日本在AI领域还大有赶超美国之势。

后来成为Jeff Dean同事(实习生 ^_^)的神经网络之父Geoffrey Hinton,当时也已经有很多重要研究发表,反向传播也出现了。

Jeff Dean这篇论文提到的两种并行训练方法,就都是基于反向传播的。

网友@silverlake说,“我几乎与Dean同龄,我的本科项目是用遗传算法改进神经网络。当时人工智能很流行,但不久之后冬天来了。”

1990年代早期,对神经网络和机器学习来说是一段非常有趣的日子。当时物体识别、手写识别等都有出现,所有进展都在快速推进,但很快资金撤走了,项目全都陷入困顿。

“幸好后来GPU、深度反向传播的出现,数据量开始爆炸之后,神经网络卷土重来。”网友@dekhn说。而对于那些在第二次AI寒冬中坚守至今的人来说,显然已经得到了应有的回报。



回忆往事之外,不少人得出类似不忘初心,方得始终的结论。

比方Jeff Dean本科毕业论文中研究的问题,被指仍然是今天TensorFlow的重大问题之一。

“真正有趣和创新的早期工作,我认为这也解释了为什么TensorFlow不支持层内模型并行。令人惊讶的是,早期的经历对我们的影响有多大。”网友@scottlegrand2评价。

确实如此。实际上本科毕业之后,Jeff Dean并没有一直沿着AI的方向继续研究下去。随后他的兴趣转向编写高级面向对象语言的编译器,并且在这个领域取得博士学位。

“然而那一丝觉得神经网络很有意思的感觉,从来没有真正消失过”,于是后来Jeff Dean又在Google内部主导神经网络、人工智能的研究,并且和吴恩达、Greg Corrado共同发起成立了Google Brain项目并且担任负责人。

有人评价说,Jeff Dean是一位具有编译器优化专业知识的计算机科学家,而TensorFlow本质上是一种将神经网络加速,转化为与编译器优化相关问题的尝试。



当然,还有很多人注意到,这篇优秀毕业论文只有8页

“一如既往,Jeff Dean从不让人失望。在年轻的时候就解决了一个负责的问题,获得很好的结果,而且清楚简洁的描述了解决方案。”网友@halflings留言说,“我的论文得有60页,但价值不及这篇的千分之一。”

一个学术机构竟然允许提交这么简明的毕业论文,值得表扬。有人回忆起自己读研时的经历:几乎每个修改我论文的人都想加一堆废话。如果你想用一句话简单描述,就会被拒。导师能允许他、甚至鼓励他这么高效精简地沟通,对他真是太好了。

于是,大家开始好奇他导师是谁……

当然有答案。Jeff Dean本科毕业论文的导师,是Vipin Kumar。

Kumar教授现在依然在明尼苏达大学任教,研究数据挖掘、高性能计算和这些技术在气候、生态系统、医疗方面的应用。他还曾在1998年-2005年期间,担任美国陆军高性能计算研究中心(AHPCRC)主任。

Jeff Dean发推说,这篇论文他其实已经弄丢了,于是今年年初,他问当年在明尼苏达大学的导师Vipin Kumar还有没有这篇论文,当然,老师也没有……

他们又去问了学校的荣誉毕业生项目(Honors Program),得到的答案是,纸质论文全都没了。好在,图书馆扫描了一份PDF,才让这篇论文重见天日。

这篇论文在讲什么?

这篇已经快30岁的论文,是怎样并行训练神经网络的?

Jeff Dean探讨了两种基于反向传播来平行训练神经网络的方法。

第一种是模式分割法(pattern-partitioned approach),将整个神经网络表示在每一个处理器上,把各种输入模式划分到可用的处理器上;

第二种称为网络分割法(network-partitioned approach)流水线法(pipelined approach),将神经网络的神经元分布到可用的处理器上,所有处理器构成一个相互通信的环。然后,特征通过这个pipeline传递的过程中,由每个处理器上的神经元来处理。

他还构建了不同大小的神经网络,用几种不同的输入数据,对这两种方法进行了测试。

结果表明,对于模式分割法,网络大、输入模式多的情况下加速效果比较好;



而下面这张图,是两种方法的对比结果:



那时候,Python公开版还没发行,更没有TensorFlow、PyTorch之类的框架。Jeff Dean并行训练神经网络的测试代码,都是用C语言写的。

这些神经网络本身、用来测试的配置,也有有浓厚的年代感。我们从论文里能看到1990年的“大”神经网络什么样:3层、每层分别10、21、10个神经元的神经网络,就算很大了。而Jeff Dean测试用的处理器,最多达到了32个。

这时的Jeff Dean应该还想不到,12年后,他会和吴恩达、Quoc Le等人一起,用16000个CPU核心,从海量数据中找出猫。

论文传送门:

https://drive.google.com/file/d/1I1fs4sczbCaACzA9XwxR3DiuXVtqmejL/view

Jeff Dean小传



1969年生,49岁。

1996年博士毕业于华盛顿大学计算机系(UW)。

美国国家工程院院士,ACM Fellow,AAAS Fellow。

1999年加入初创期的Google,设计并部署了Google广告、抓取、索引和查询服务系统的大部分内容,以及位于Google大部分产品下方的各种分布式计算基础架构,也是Google新闻、Google翻译等产品的开发者。

发起创办了Google大脑。

发起打造了目前全球份额第一的深度学习框架平台TensorFlow。

虽然官方title是Google高级研究员,但Jeff Dean在Google的地位仅次于创始人拉里·佩奇和谢尔盖·布林。

在2018年4月,Google内部架构调整,Jeff Dean接管Google整个AI业务和团队,据称工位也与Google现任CEO皮猜相邻。



 Jeff Dean的LinkedIn履历

段子中的姐夫

当然,如果你对这位低调的大神了解有限,是时候又要祭出圈内口口相传的Jeff Dean的段子集了。

我们也当面向“姐夫”转述过这些段子,他当时笑着回答说:谢谢大家的喜爱。

一起来看看这些段子吧:

During his own Google interview, Jeff Dean was asked the implications if P=NP were true. He said, “P = 0 or N = 1.” Then, before the interviewer had even finished laughing, Jeff examined Google’s public certificate and wrote the private key on the whiteboard.
当他被Google面试时,Jeff Dean被问及如果P=NP意味着什么。他说,“P=0 或者 N=1”。然后,在所有的面试官还没笑完之前,Jeff瞄了一眼Google的公共证书然后在白板上写上了对应的私钥。

Compilers don’t warn Jeff Dean. Jeff Dean warns compilers.
编译器从来不给Jeff编译警告,而是Jeff警告编译器。

The rate at which Jeff Dean produces code jumped by a factor of 40 in late 2000 when he upgraded his keyboard to USB 2.0.
在2000年后段,Jeff码代码的速度突然激增了40倍,原因是他把自己的键盘升级到了USB 2.0。

Jeff Dean builds his code before committing it, but only to check for compiler and linker bugs.
Jeff还是会在提交代码前把它们编译一遍,不过这么做的目的只是为了检查下编译器和链接器有没有bug。

gcc -O4 emails your code to Jeff Dean for a rewrite.
gcc的-O4优化选项是将你的代码邮件给Jeff重写一下。



Jeff Dean was born on December 31, 1969 at 11:48 PM. It took him twelve minutes to implement his first time counter.
Jeff出生于1969年12月31日的下午11点48分,然后他花了整整12分钟的时间实现了他的第一个计时器。(背景:计算机中的计时器数值通常被设计为从1970年1月1日0点0分0秒到当前为止的秒数)。

When Jeff Dean designs software, he first codes the binary and then writes the source as documentation.
当Jeff写软件时,他是直接码机器码的。写源代码只是为了作为文档使用。

Jeff Dean’s keyboard has two keys: 1 and 0.
Jeff的键盘多达两个键:1和0。

When Jeff has trouble sleeping, he Mapreduces sheep.
当Jeff失眠时,他用Mapreduce属羊。(Mapreduce是Jeff的作品之一,这个分布式处理的框架算法是Google立足的根本之一)。

You name three pointers, Einstein, Euler, and Turing, when you de-reference them, all you get is Jeff Dean.
如果你命名三个指针分别为爱因斯坦、欧拉和图灵,当你查看它们的指向时,你看到的都会是Jeff。

更多Jeff Dean的段子集,还可移步Quora上的「谷歌大神Jeff Dean有多牛」合辑:
https://www.quora.com/What-are-all-the-Jeff-Dean-facts

加入社群

量子位AI社群19群开始招募啦,欢迎对AI感兴趣的同学,在量子位公众号(QbitAI)对话界面回复关键字“交流群”,获取入群方式;

此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。

进专业群请在量子位公众号(QbitAI)对话界面回复关键字“专业群”,获取入群方式。(专业群审核较严,敬请谅解)

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态

Jeff Dean本科论文首次曝光!第一批90后出生时,他就在训练神经网络相关推荐

  1. 第一批 90 后30 岁了!那些 30 岁前就成博导的人都怎样了...

    前段日子,一个名为 #第一批 90 后 30 岁倒计时#的话题被顶上了微博热搜,无数网友参与了讨论. 图片来源:微博截图 转眼 2019 年 12 月已快过半,笔者掐指一算,第一批 90 距离 30 ...

  2. 第一批 90 后还有半个月就 30 岁了!那些 30 岁前就成博导的人都怎样了...

    前段日子,一个名为 #第一批 90 后 30 岁倒计时#的话题被顶上了微博热搜,无数网友参与了讨论. 图片来源:微博截图 转眼 2019 年 12 月已快过半,笔者掐指一算,第一批 90 距离 30 ...

  3. 数据显示:第一批90后在30岁左右的时候,存款金额30万才算达标

    2022年5月19日,新出来的一则<大学生就业报告>和<90后理财与消费报告>引起了广大网友的吐槽,据数据显示,第一批90后在30岁的存款金额大概处于27~38万区间. 令很多 ...

  4. 最后一批90后开始养生了,中医科普短视频会火吗?

    SM是什么?失眠吗? 如果没有制作方的理念讲解,我真的会以为自己点开的又是一个段子手的搞笑视频.而这则名为<SM最佳伴侣,甘麦大枣汤>的短视频实际上是关于药膳的,如果你最近经常失眠,又觉得 ...

  5. 第一批90后已经爬上胡润富豪榜了,第一批90后已经秃了......

    作者 | 桌子的生活观 来源 | ID: zzdshg 昨天写日期的时候,写错了,写成了2019年,划掉又重写. 真的没有想到,现在一晃眼间已经是2020年了. 说实话,我现在还是有点懵的,不知不觉, ...

  6. 第一批90后即将30岁,存款还不到10万

    "你今年多大了?""下一题" "你有对象吗?""下一题" "你月薪多少?""下一题&quo ...

  7. 第一批90后已经30岁了:只有一个人,值得你用一生去攀比!

    作者 | 威利 来源 | 粥左罗的好奇心(ID: fangdushe007) 第一批20后要出生了,第一批90后都30岁了,要变成奔四的人了,连00后都步入20岁大关了.聊一个恶俗的话题,关于梦想和自 ...

  8. 卖饭考公当老板,第一批 90 后程序员的转行之路

    都说程序员是碗青春饭,过了三十便不再吃香.眼看第一批90后程序员马上就是三十岁了,随着门槛值的日益逼近,他们是否已经开始为此犯愁并准备谋划出路了呢? 本文采访了几位转行成功的90后程序员,让我们来听听 ...

  9. 【神经网络本质是多项式回归】Jeff Dean等论文发现逻辑回归和深度学习一样好

    起因是以色列理工学院工业工程与管理学院的助理教授 Uri Shalit 在 Twitter 上发文,指出这篇论文的补充材料里,有一处结果非常值得注意:标准化逻辑回归实质上与深度神经网络一样好. Uri ...

最新文章

  1. EF Core 3 的 40 个中断性变更
  2. 简单的计算机程序代码,优秀程序员通过简单代码,窥探电脑编程中强大的数组操作功能...
  3. Taro+react开发(43)重新渲染置空
  4. java开发和基于asp.net开发有什么优越性?_java语言的入门开始介绍
  5. Dockter:研究人员的容器图像生成器
  6. JavaScript基础(二)-类
  7. Python风格总结:迭代器与生成器
  8. python队列中替换某元素_如何打印队列中的元素(Python)
  9. HashMap 的底层源码分析
  10. 2.原子变量 CAS算法
  11. 【预测模型-ELM分类】基于鲸鱼算法优化核极限学习机实现数据分类附matlab代码
  12. matlab 色彩布局描述符(Color layout descriptor)
  13. 关于GoldWave给Vegas视频添加音频叠加的教程分享
  14. java jse jee jme_Java学习笔记(1) --JSE 、JEE、 JME三者的区别
  15. UKF-MATLAB实现
  16. Self -Supervised Learning
  17. # 工欲善其事必先利其器,让你的idea“飞”起来
  18. python爬虫实践之爬取豆瓣高评分电影
  19. 共享单车回收难ofo垃圾成山 共享单车该如何管理?
  20. Eclipse中文汉化包、设置回英文教程

热门文章

  1. 1024程序员节:除了高薪,你还有什么理由坚持做程序员?
  2. 这届程序员,要做好苦日子的准备了?
  3. 谁会最先陨落:Google,苹果,Facebook,还是微软?
  4. 区块链开发人员短缺?各大公司献上连环招
  5. C++ 17 标准正式发布:终于能更简单地编写和维护代码了!
  6. 字节大牛耗时八个月又一力作,原理+实战讲解
  7. 第 7 章 本地方法栈
  8. 单片机六位抢答器c语言程序,八路电子抢答器(基于51单片机的8路抢答器设计C语言程序)...
  9. oracle 分词函数,Oracle 中文分词
  10. j - cyk追楠神系列一_「清单」小米烧水杯太萌了,喜茶桂花冻太香了,优衣库新系列太美了!...