点击我爱计算机视觉标星,更快获取CVML新技术


本文转载自新智元(AI_era)。


  新智元报道 

来源:reddit

整理:大明

【新智元导读】机器学习和AI今天的繁荣离不开前辈们的辛勤耕耘。近日,Reddit网友总结了20世纪和21世纪被引用数最多的一些机器学习论文。这些论文的作者很多都已成为“大神”,正是因为他们的“披荆斩棘”,才有了今天的“花团锦绣”,吃水不忘打井人,一起来看看这些文章吧!

20世纪,LTSM创始人Schmidhuber 1997年的论文Long short-term memory被引数目前位列第一,达到2.6w次。超过了此前一直排名第一的反向传播算法的一系列文章。

进入21世纪,更多在竞赛中大放异彩的论文获得了更高的引用,包括提出AlexNet(2012,5.3w次)和Deeper CUDA CNN(2014,3.2w),并分别赢得当年的ImageNet大赛。

单年被引用最高的文章则是何恺明团队2015年提出ResNet的文章(3.6w,2019年被引用1.8w次)。

20世纪:LSTM以2.6w次居榜首,超越经典的“反向传播”算法

Long short-term memory,S Hochreiter,J Schmidhuber,1997(截至2019年,共被引用2.6w次)

论文链接:

https://www.bioinf.jku.at/publications/older/2604.pdf

这篇文章被引次数目前已超过Rumelhart等人的关于反向传播算法的一系列论文。(1985,1986,1987)。注意别被Google Scholar误导了,有时候它会错误地将Rumelhart的不同论文和著作合在一起计算,包括:

Learning internal representations by errorpropagation ,DE Rumelhart,GE Hinton,RJ Williams,1985(2.5w)

章节链接:

https://web.stanford.edu/class/psych209a/ReadingsByDate/02_06/PDPVolIChapter8.pdf

Parallel distributed processing,JL McClelland,DE Rumelhart,PDP研究小组,1987(2.4w)

http://web.stanford.edu/~jlmcc/papers/PDP/Volume%201/Chap1_Part1_PDP86.pdf

Learning representations byback-propagating errors,DE Rumelhart,GE Hinton,RJ Williams, 1986(1.9w)

论文链接:

https://www.iro.umontreal.ca/~vincentp/ift3395/lectures/backprop_old.pdf

Reddit这篇文章的作者认为,反向传播算法的这些论文和著作不再排名被引用数第一,这是件好事,因为这些文章中没有引用反向传播的真正发明者,并且作者从未对此进行过更正。

Schmidhuber称,反向传播算法实际上是Linnainmaa在1970年提出的。Schmidhuber认为Hinton、Bengio和LeCun于2015年6月在Nature上发表的《深度学习》一文中将反向传播算法诞生归功于自己是贪他人之功。

从被引用数增加速度上来看,LSTM论文每年新增被引用次数超过了Rumelhart的所有反向传播论文的总和。并且超过了LeCun和Bengio(1998)关于卷积神经网络的引用最多的这篇论文:

Gradient-based learning applied to documentrecognition,Y LeCun,L Bottou,Y Bengio,P Haffner,IEEE86(11),2278-2324,1998(2.3w)

论文链接:

http://vision.stanford.edu/cs598_spring07/papers/Lecun98.pdf

21世纪:ImageNet冠军受热捧,何恺明ResNet今年被引1.8w

进入21世纪,尤其是2010年之后,机器学习热度逐渐上升,有3篇深度学习研究论文被引用次数超过了上世纪发表的这些文章。这些文章都与神经网络在ImageNet图像识别中的应用有关(2012、2014、2015)。其中一篇论文提出的AlexNet赢得了2012年ImageNet挑战赛。另一篇论文提出的Deeper CUDA CNN则赢得了2014年的ImageNet挑战赛。

A Krizhevsky, I Sutskever, GE Hinton. Imagenet classification with deep convolutional neural networks. NeuerIPS 2012  (5.3w)

论文链接:

https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf

B. K Simonyan, A Zisserman. Very deep convolutional networks for large-scale image recognition. arXiv:1409.1556, 2014(3.2w)

论文链接:

https://arxiv.org/pdf/1409.1556.pdf

今年被引用最多的论文是2015年一篇的残差网络(ResNet)的论文,该论文提出的基于ResNet的深度学习在2015年的ImageNet 竞赛中获胜。论文一作何恺明正式踏上大神之路。

K He, X Zhang, S Ren, J Sun. Deep ResidualLearning for Image Recognition. CVPR 2016(3.6w,其中2019年被引用1.8w)

论文链接:

https://arxiv.org/pdf/1512.03385.pdf

深度学习革命的核心:一切源自LSTM?

值得注意的是,进入21世纪后这些“竞赛奖拿到手软的、基于深度GPU的CNN”也可以追溯到Schmidhuber实验室的研究。

在AlexNet的论文中,一作Krizhevsky引用了DanNet,这是第一个赢得图像识别挑战的CUDA CNN,也是第一个表现超过人类的CNN。而DanNet是Schmidhuber团队的Dan Ciresan提出的,在AlexNet诞生之前已经赢得了4个图像识别挑战赛的冠军:ICDAR 2011手写汉字识别大赛、IJCNN 2011交通标志识别大赛、ISBI 2012图像分割大赛,以及CPR 2012医疗影像识别大赛。

2015年的ResNet比DanNet和AlexNet更深入,效果更好。此文引用了Highway Net(Srivastava&Greff&Schmidhuber,2015),这是一个特例。从某种意义上讲,“Highway Net本质上LSTM网络的前馈版本。

大多数提及LSTM的文章均引用本文开头提到的1997年的LSTM论文。但是,Schmidhuber在本人表示,关于LSTM的“基本见解”可以追溯到Seep Hochreiter的1991年的学位论文,他认为这篇文章是“机器学习历史上最重要的文件之一”。(他还向其他学生表示感谢:“通过我后来的学生Felix Gers,AlexGraves和其他人的工作,“ LSTM及其训练程序得到了进一步的改进”。)

实际上,LSTM的原理对于循环网络和前馈网络都是必不可少的。无论是智能手机app,还有Deepmind的《星际争霸2》冠军AI,或是OpenAI的Dota AI都离不开它。可以说,它是深度学习革命的核心。

参考链接:

https://www.reddit.com/r/MachineLearning/comments/eg8mmn/d_the_1997_lstm_paper_by_hochreiter_schmidhuber/

CV细分方向交流群

52CV已经建立多个CV专业交流群,包括:目标跟踪、目标检测、语义分割、姿态估计、人脸识别检测、医学影像处理、超分辨率、神经架构搜索、GAN、强化学习等,扫码添加CV君拉你入群,如已经为CV君其他账号好友请直接私信,

(请务必注明相关方向,比如:目标检测

喜欢在QQ交流的童鞋,可以加52CV官方QQ群:805388940。

(不会时时在线,如果没能及时通过验证还请见谅)


长按关注我爱计算机视觉

Reddit热议被引最多的机器学习论文:上世纪LSTM称霸,何恺明今年被引1.8w居首...相关推荐

  1. Reddit热议: 如何读论文才不至于发疯?

    Reddit热议: 如何读论文才不至于发疯? 文章目录 Reddit热议: 如何读论文才不至于发疯? 前言 核心总结 举个栗子 前言 许多新晋研究生在迈入新的领域时,都要阅读大量相关领域论文,但在信息 ...

  2. 擦掉纹身的AI火了:再现无暇皮肤,网友却发现“伏地魔” | Reddit热议

    子豪 发自 凹非寺 量子位 报道 | 公众号 QbitAI 还记得被P到体无完肤的贝克汉姆吗? P到这个程度,不得不说,后期工作人员堪称敬业典范. 在综艺节目甚至体育比赛中,艺人们也各出奇招-- 现在 ...

  3. Reddit热议:为什么PyTorch比TensorFlow更快?

    点击我爱计算机视觉标星,更快获取CVML新技术 本文转载自新智元(ID:AI_era),禁止二次转载.   新智元报道   来源:Reddit 编辑:小芹 [新智元导读]PyTorch可以和Tenso ...

  4. 无贡献、无创新、无思路,ML领域准博士求助:论文到底要怎么创新? | Reddit热议...

    来源丨量子位 编辑丨极市平台 导读 如何在机器学习领域写论文时保证创新性? 机器学习领域水写论文日常: △图源推特:AI Memes for Artificially Intelligent Teen ...

  5. 社交媒体和arXiv存在,让双盲评审形同虚设 | Reddit热议

    白交 发自 凹非寺  量子位 报道 | 公众号 QbitAI 双盲评审机制真的双盲吗? 最近,Reddit上有这样一个讨论:社交媒体与arXiv是否损坏了顶会双盲的机制? 13个小时,热度超过300- ...

  6. 何恺明的ResNet引用量突破10万!

    点击下方卡片,关注"CVer"公众号 AI/CV重磅干货,第一时间送达 转载自:机器之心  |  编辑:泽南.小舟 「深度神经网络非常难以训练,我们提出的残差网络框架使得神经网络的 ...

  7. ssd处理灰度图_ECCV 引用量最高的10篇论文!SSD登顶!何恺明ResNet改进版位居第二...

    前言 前两天,Amusi 整理了CVPR 和 ICCV 引用量最高的10篇论文,分别详见: 众所周知,CV领域的三大顶会就是:CVPR.ICCV和ECCV.在谷歌发布的2020年的学术指标(Schol ...

  8. 机器学习内卷化:博士数量激增,本硕毕业生有点慌 | reddit热议

    转自:量子位 一入ML深似海,从此求职不由人? 机器学习现在势头正劲,越来越多的人涉足其中,就业门槛也随之抬高. 最近,就有人在reddit上提出疑问:ML博士数量激增,那么没博士学位的人,找工作的难 ...

  9. 博士在读却连矩阵的秩都搞不清,我该如何毕业?|Reddit热议

    丰色 发自 凹非寺 量子位 报道 | 公众号 QbitAI 带着满腔热血读了博,到头却发现自己学术天分不够? 看着别人做顶会收割机,自己却一篇论文都没发? 而且研究不出什么新方法,只能天天搞搞应用? ...

最新文章

  1. Java程序猿的JavaScript学习笔记(12——jQuery-扩展选择器)
  2. Java时间Calendar
  3. 腾讯游戏分享汇:天天飞车六大研发经验
  4. python编写的软件界面-为Python程序添加图形化界面的教程
  5. 联络中心的发展方向是SOA
  6. 分数线划定pascal程序
  7. Windows平台下kafka环境的搭建
  8. 现代软件工程系列 结对编程 (II) 电梯调度程序
  9. 【今日CS 视觉论文速览】8 Jan 2019
  10. dmv io读写高的sql_使用内置的动态管理视图(DMV)发现更多SQL Server信息
  11. unix 网络编程总结
  12. PyQT简单入门--hello world
  13. java应用中如何连接dbproxy_GitHub - alchemystar/hero: 用c语言写的dbproxy
  14. 计算机图形学入门知识
  15. 20天学习Spark(0)之最简单版Spark入门
  16. 全球搜索引擎Top10 可惜很多人只用过第四个
  17. 后盾网mysql_后盾网MySQL数据库视频图文详细教程资源推荐
  18. Allegro如何给铜皮导弧操作详解
  19. 12306接口协议分析
  20. 启动服务提示端口已存在的处理方法

热门文章

  1. mac下安装与配置mysql数据库,Mac下MySQL的安装与配置
  2. 什么时候出python4_什么?Python4要来了?快来看看Python之父怎么说
  3. git merge用法_Git 基本命令 merge 和 rebase,你真的了解吗?
  4. 爬虫怎么处理python_python 爬虫怎么处理json内容
  5. php命令执行无法重定向输出,PHP标头重定向无法正常工作
  6. mysql 并发 压测工具_MySQL压测工具mysqlslap的介绍与使用
  7. php生成红包数组,PHP 生成微信红包代码简单
  8. python生成指定长度的列表_如何在python中创建固定大小列表?
  9. python数组取数_python 取数组
  10. linux系统怎么安装cas,CAS 在Linux中安装与配置