必读论文 | 卷积神经网络百篇经典论文推荐
作为深度学习的代表算法之一,卷积神经网络(Convolutional Neural Networks,CNN)在计算机视觉、分类等领域上,都取得了当前最好的效果。
卷积神经网络的前世今生
卷积神经网络的发展,最早可以追溯到1962年,Hubel和Wiesel对猫大脑中的视觉系统的研究。1998年,著名计算机科学家Yann LeCun在论文Gradient-Based Learning Applied to Document Recognition中提出了LeNet-5,将BP算法应用到神经网络结构的训练上,形成了当代卷积神经网络的雏形。直到2012年,AlexNet网络出现之后,神经网络开始崭露头角。在Imagenet图像识别大赛中,Hinton组的论文ImageNet Classification with Deep Convolutional Neural Networks中提到的Alexnet引入了全新的深层结构和dropout方法,一下子把error rate从25%以上提升到了15%,一举颠覆了图像识别领域。此后卷积神经网络声名大噪并蓬勃发展,广泛用于各个领域,在很多问题上都取得了当前最好的性能。2015年深度学习领域的三巨头LeCun、Bengio、Hinton在Nature上发表一篇综述文章Deep Learning,系统地总结了深度学习的发展前世今生。在2016年,CNN再次给人们一个惊喜:谷歌研发的基于深度神经网络和搜索树的智能机器人“AlphaGo”在围棋上击败了人类,更惊喜的是谷歌在Nature专门发表了一篇文章来解释AlphaGo,文章名字为Mastering the game of Go with deep neural networks and tree search。随后利用了ResNet和Faster-RCNN的思想,一年后的Master则完虐了所有人类围棋高手,达到神一般的境界,人类棋手毫无胜机。后来又有很多复现的开源围棋AI,每一个都能用不大的计算量吊打所有的人类高手。
可以说,卷积神经网络是深度学习算法应用最成功的领域之一。
卷积神经网络百篇经典论文
研读卷积神经网络的经典论文,对于学习和研究卷积神经网络必不可缺。根据相关算法,AMiner从人工智能领域国际顶会/期刊中提取出“卷积神经网络”相关关键词,筛选并推荐了100篇经典必读论文。这100篇论文大多发表于2015年至2019年间,主要发表在CVPR、ICCV、ICML、NeuIPS等计算机视觉顶级学术会议上。在该领域发表论文最多的学者中,“神经网络之父”、“深度学习鼻祖”Hinton与Bengio双双上榜,为深度学习研究持续贡献了力量。按照这100篇经典论文的被引用量,我们挑选了其中的TOP10作简单评述。
1. Fully Convolutional Networks for Semantic Segmentation(CVPR2015)
引用量:13136
论文作者:Jonathan Long,Evan Shelhamer,Trevor Darrell
作者单位:UC Berkeley
本篇论文是神经网络大神Jonathan Long与他的博士同学 Evan Shelhamer、导师Trevor Darrell的代表作,获得了 CVPR 2015 年最佳论文奖。该文的核心贡献,在于提出了全卷积网络(FCN)的概念,它是一种可以接受任意大小图像并输出与输入等大的图像的全卷积神经网络。CNN近年来发展迅速,在图像领域更是主流方法,驱动着物体检测、关键点检测等的发展,但CNN对于图像语义分割却在时间和精度方面都表现不好。本文提出了FCN,针对语义分割训练一个端到端,点对点的网络,达到了state-of-the-art。这是第一次训练端到端的FCN,用于像素级的预测;也是第一次用监督预训练的方法训练FCN。
2. Convolutional Neural Networks for Sentence Classification(EMNLP 2014)
引用量:5978
论文作者:Yoon Kim
作者单位:纽约大学
2012年在深度学习和卷积神经网络成为图像任务明星之后, 2014年TextCNN诞生于世,成为了CNN在NLP文本分类任务上的经典之作。TextCNN提出的目的在于,希望将CNN在图像领域中所取得的成就复制于自然语言处理NLP任务中。
TextCNN是一种采用卷积神经网络(CNN)提取文本n-gram特征,最大池化,全连接然后进行分类的一种新型模型。它在当时对文本分类SVM老大的位置提出了挑战,虽然当时TextCNN模型效果没有完全超过SVM,但CNN的热潮使得TextCNN极受追捧,成为NLP文本分类任务的经典模型。
3. Large-Scale Video Classification with Convolutional Neural Networks(CVPR2014)
引用量:4145
论文作者:Andrej Karpathy,George Toderici,Sanketh Shetty,Thomas Leung,Rahul Sukthankar,Li Fei-Fei
作者单位:谷歌,斯坦福大学
该文研究了多种方法来扩展CNN在时域上的连通性,以利用局部时空信息,作者提出一个多分辨率、新颖的框架的方式来加快训练(计算效率)。
文章的贡献点主要有三个:
1.将CNN拓展,用于视频分类;
2.使用两种不同的分辨率的帧分别作为输入,输入到两个CNN中,在最后的两个全连接层将两个CNN统一起来;两个流分别是低分辨率的内容流和采用每一个帧中间部分的高分辨率流;
3.将从自建数据库学习到的CNN结构迁移到UCF-101数据集上面。
作者提出的模型与单帧模型相比性能有了显著提升,为此作者进一步研究了其中表现最佳的模型的泛化能力,即通过在UCF-101数据集上重新训练顶层,相比基准模型性能显著改善。
4. How transferable are features in deep neural networks? (NIPS 2014)
引用量:3414
论文作者:Jason Yosinski,Jeff Clune,Yoshua Bengio,Hod Lipson
作者单位:卡耐基梅隆大学,怀俄明大学,蒙特利尔大学
本文是Bengio团队关于迁移学习(Transfer Learning)的研究,文章通过研究特征的可迁移性来对这个从泛化的特化的过程进行评估,对于研究深度神经网络特征的可迁移性具有重要意义。本文实验了深度神经网络中不同层神经元的泛化性能和特异性,模型的迁移能力主要受到两个因素的影响:1)深度模型在越深的层,其专业性(specialization)越强,即越只能完成特定任务,这使得深度模型学习到的深层特征迁移性很差;2)模型在优化过程中,层与层之间的参数的优化是有关联性,当固定浅层的权值,来训练高层权值时,会打破这种关联性,使得模型的能力变差,泛化能力也变差。上述两个问题在深度神经网络的不同层发生占比不一样。文章还证明了利用训练好的迁移特征,初始化一个新网络,不论初始化几层,都能够对增强模型起到最终的效果。
5. Learning Spatiotemporal Features with 3D Convolutional Networks(ICCV2015)
引用量:2711
论文作者:Du Tran,Lubomir Bourdev,Rob Fergus,Lorenzo Torresani,Manohar Paluri
作者单位:Facebook,达特茅斯学院
这篇文章介绍了在大规模有监督的视频数据集下,训练出了一种简单且高效的三维卷积神经网络的方法来学习时空特征。3D ConvNets的特征将与视频中的对象、场景和动作相关的信息封装起来,使其对各种任务有用,而无需为每个任务分配模型。3D卷积网络的优势有三点:1)同2D卷积网络相比,3D卷积网络更适合时空特征的学习;2)3D卷积网络的每一层的卷积核的结构是齐次的,并且在很多结构中都适用; 3)将学到的特征成为C3D,带有一个简单的线性分类器,在4个不同的benchmarks上测试都实现了最好的性能,并且在另外的2个benchmarks上与目前的最好的方法相媲美。
6. SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation
引用量:2373
论文作者:Vijay Badrinarayanan,Alex Kendall,Roberto Cipolla
作者单位:剑桥大学
本文提出了一种用于像素级语义分割的深度全卷积神经网络结构SegNet。SegNet的创新点在于译码器对输入的低分辨率特征图的上采样处理方式。具体来讲,解码器利用在max-pooling过程中计算的池化indices,计算对应的编码器的非线性上采样。这个操作就省去了上采样过程的学习。上采样后的map是稀疏的,再用可学习的filter通过卷积计算稠密的特征图。作者比较了文中的结构与FCN、DeepLab-LargeFOV和DeconvNet结构。由于SegNet的设计初衷来源于场景理解(scene understanding),因此在内存和计算时间上效率很高,可学习参数量也比其他结构小,可以用SGD端到端训练。在道路场景和SUN RGB-D室内场景下进行了排名。
7. XNOR-Net: ImageNet Classification Using Binary Convolutional Neural Networks(ECCV2016)
引用量:1713
论文作者:Mohammad Rastegari,Vicente Ordonez,Joseph Redmon,Ali Farhadi
作者单位:艾伦人工智能研究所,华盛顿大学
该文针对标准卷积神经网络提出了两种有效的近似网络:二元权重网络和XNOR网络。二元权重网络中,卷积核用两个值来近似表示,从而节省32倍的存储空间。在XNOR网络中,卷积核和卷积层输入都是用两个值(1和-1)表示的。 XNOR网络主要使用二元运算进行卷积运算。这使得卷积操作速度提高了58倍,节省了32倍的内存。 XNOR网络实现了在CPU(而不是GPU)上实时运行最先进网络的可能。我们的二元权值网络简单、准确、高效,并且能够处理具有挑战性的视觉任务。我们在ImageNet分类任务上评估我们的方法。 AlexNet二元权值版本的分类准确性与全精度AlexNet相同。我们将我们的方法与最近的网络二值化方法BinaryConnect和BinaryNets进行比较,并且在ImageNet上以大幅优势胜过这些方法,超过了top-1 16%的精度。
8. Character-level Convolutional Networks for Text Classification(NIPS2015)
引用量:1701
论文作者:Xiang Zhang,Junbo Zhao,Yann LeCun
作者单位:纽约大学
在这篇论文中,作者将字符级的文本当作原始信号,并且使用一维的卷积神经网络来处理它。研究表明,单词嵌入表示可以直接用于卷积神经网络,而无需考虑语言的语法或语义结构。作者发现,当训练大规模数据集时,深度卷积神经网络并不需要单词层面的意义(包括语言的语法和语义),这是非常激动人心的工程简化,因为不管什么语言,它都是由字符组成的,因此这对于构建跨语言的系统至关重要。还有一个好处,对于异常的字符组成(比如拼写错误)和表情符,该模型依然能够应付。
9. Towards End-To-End Speech Recognition with Recurrent Neural Networks(ICML2014)
引用量:1339
论文作者:Alex Graves,Navdeep Jaitly
作者单位:DeepMind,多伦多大学
本文提出了一种语音识别系统,该系统不需要中间语音表示,直接用文本对音频数据进行转录。该系统是基于深度双向LSTM递归神经网络结构和连接主义者的时间分类目标函数相结合的。引入了目标函数的修正,训练网络最小化任意转录损失函数的期望。这允许对单词错误率进行直接优化,即使在没有词汇或语言模型的情况下也是如此。该系统在没有先验语言信息的《华尔街日报》语料库中实现了27.3%的错误率,在只使用允许单词的词典的情况下实现了21.9%的错误率,在使用trigram语言模型的情况下实现了8.2%的错误率。将网络与基线系统相结合进一步将错误率降低到6.7%。
10. DRAW: A Recurrent Neural Network For Image Generation(ICML 2015)
引用量:1186
论文作者:Karol Gregor,Ivo Danihelka,Alex Graves,Danilo Jimenez Rezende,Daan Wierstra
作者单位:Google DeepMind
本文出自Google DeepMind实验室,介绍了一种可应用于图像生成的Deep Recurrent Attentive Writer(DRAW)神经网络模型,此模型能够生成高质量的自然图像,并提高了当前在MNIST数据集上生成模型表现的最好水平。此外,使用SVHN数据集训练的DRAW模型生成的图片,裸眼无法分辨其与真实数据的区别。
更多卷积神经网络必读论文请查阅”必读论文“模块“
相关阅读
必读论文 | 20篇强化学习研究必读论文速递
必读论文 | 知识图谱必读论文10篇
必读论文 | 机器学习必读论文20篇
必读论文 | 信息检索与推荐必读论文10篇
必读论文 | COVID-19必读论文20篇
必读论文 | 20 篇聊天机器人领域必读论文速递
必读论文 | 百篇最值得一读的“认知图谱”经典论文
AMiner学术搜索服务全新上线 | “一键”帮你搞定论文综述,带你研读AI相关Topic百篇经典论文
必读论文 | 卷积神经网络百篇经典论文推荐相关推荐
- AMiner学术搜索服务全新上线 | “一键”帮你搞定论文综述,带你研读AI相关Topic百篇经典论文
面对海量的论文文献,无论你是学术新人还是行业大神,你是否想过"谁能帮我找到那篇我最需要的论文呢":想要深入了解学习某个领域知识,你曾否想过"谁能告诉我到底该看哪些论文&q ...
- 撒花!算法岗必须复现的上百篇经典论文代码完结啦! | 附下载链接
经常会看到类似的广告<面试算法岗,你被要求复现论文了吗?>不好意思,我真的被问过这个问题.当然也不是所有面试官都会问,究其原因,其实也很好理解.企业肯定是希望自己的产品是有竞争力,有卖点的 ...
- 卷积神经网络必读的100篇经典论文,包含检测/识别/分类/分割多个领域
点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 参考|学术头条 编辑|极市平台 作为深度学习的代表算法之一,卷积神经 ...
- 论文大盘点|卷积神经网络必读的100篇经典论文,包含检测/识别/分类/分割多个领域...
关注上方"深度学习技术前沿",选择"星标公众号", 资源干货,第一时间送达! 转载自:极市平台 作为深度学习的代表算法之一,卷积神经网络(Convolution ...
- 大盘点|卷积神经网络必读的 100 篇经典论文,包含检测 / 识别 / 分类 / 分割多个领域
关注极市平台公众号(ID:extrememart),获取计算机视觉前沿资讯/技术干货/招聘面经等 原文链接:大盘点|卷积神经网络必读的 100 篇经典论文,包含检测 / 识别 / 分类 / 分割多个领 ...
- IJCAI 2020 | 近期必读的卷积神经网络精选论文
AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权.平台包含了超过2.3亿学术论文/专利和1.36亿学者的科技图谱,提供学者评价.专家发现.智能指派.学术地图等科技情报专业化服务.系统2 ...
- Diffusion Models从入门到放弃:必读的10篇经典论文
前言:diffusion models是现在人工智能领域最火的方向之一,并引爆了AIGC方向,一大批创业公司随之诞生.笔者2021年6月开始研究diffusion,见证了扩散模型从无人问津到炙手可热的 ...
- 生成式摘要的四篇经典论文
文章目录 论文1. 生成式摘要的开篇之作 EMNLP2015 论文2. 进阶之作(姐妹篇) NAACL2016 论文3. 钻研摘要任务本质的全技能之作 CoNLL2016 论文4. 生成-抽取方法的进 ...
- 推荐|NE(Network Embedding)论文小览,附21篇经典论文和代码
文章转自:NE(Network Embedding)论文小览,附21篇经典论文和代码 自从word2vec横空出世,似乎一切东西都在被embedding,今天我们要关注的这个领域是Network Em ...
最新文章
- Python开发基础总结之函数+闭包+字典+列表
- bootstrap php zend,Zend Framework教程之Bootstrap类用法概述
- Hike on a Graph HDU - 1252(bfs)
- 如何在 C# 循环中捕获局部变量?
- word List38
- C++ 通讯录设计(四)
- BitmapFactory.Options详解
- Linux timeout命令的使用:timeout - run a command with a time limit
- mysql在bin下运行mysqld_关于MySQL安装目录bin下工具的详解
- SAP License:SAP S/4HANA就是答案
- php把路由放在数据库,PHP导入Excel到数据库的方法 PHP把数据库数据导出到方法
- redis运维常用的server端命令
- FusionChartsFree在JSP中的用法
- 有赞搜索系统的架构演进
- vue项目中,使用mint-ui的picker实现省市区三级联动,并且编辑时选中默认值(封装成独立的组件)
- 高中关于人工智能方面的课题_AI相关专业或成热门?高中生也可以入门“人工智能”...
- MyEclipse修改JSP模板
- 软件测试怎么测微信朋友圈,面试题:软件测试,如何测微信的朋友圈?
- grequests并发之小试牛刀
- 国内三大B2C网站首页的信息架构【收集整理,本人非原作者】
热门文章
- 如何在pycharm中安装PIL模块
- Ubuntu启动错误——Kernel panic - not syncing VFS unable to mount root fs on unknown-block 0 0
- P1287 盒子与球题解【python】
- 两台电脑互传文件你还可以这么做
- 西安电子科大版《计算机操作系统》第四版共读——第十一章 多媒体操作系统
- C语言代码行数分类统计小程序(源代码)
- PHP合成推广微信推广海报 PHP合成图片 PHP在图片上添加文字 PHP制作图片
- linux编译动态库未定义,GCC链接库的一个坑:动态库存在却提示未定义动态库的函数...
- latex sty文件设置
- html页面中如何添加背景音乐