本文约6400字,建议阅读8分钟。

本文介绍了2020年发表的人工智能(AI)论文。

几周前,我发表了一篇文章,里面有要在2020年阅读的人工智能(AI)论文。如果你把所有额外的阅读建议都算进去,总共有27篇文章。

文章网址:

https://towardsdatascience.com/ai-papers-to-read-in-2020-ac0e4e91d915

然而,这份清单还远未完成。许多如宝石般的文章被遗漏或只是简单地提到。在这篇文章中,为了你的阅读乐趣,我列出了今年阅读人工智能论文的十条建议(以及其他一些进一步的阅读建议)。在这个列表中,我主要关注那些在不提出新架构的情况下推动最新技术的文章,这些文章不包含最新的YOLO或ResNet变体;相反,主要包括了损失公式、理论突破、新优化器等方面的最新进展。对于文章的前半部分,我将重点介绍计算机视觉和NLP,因为这些是我最熟悉的主题,并从一两个经典技术开始。对于每一篇论文,我都会总结其主要贡献,并列出阅读理由。最后,我在每一篇文章的结尾都给出了关于这个主题的具体阅读建议,并将其与其他最新进展或类似想法联系起来。

  • 1.GloVe (2014)

Pennington, Jeffrey, Richard Socher, and Christopher D. Manning. “Glove: Global vectors for word representation.” 2014年自然语言处理方法会议(EMNLP)论文集。

论文链接:

https://www.aclweb.org/anthology/D14-1162.pdf

虽然现在的社区主要关注神经网络,但许多早期的结果是通过更简单的数学方法获得的。GloVe是从经典算法出发的,它是基于减少单词共现矩阵维数的单词嵌入模型。与以前的方法不同,GloVe使用隐式表示法,使其可以扩展为大规模文本语料库。理由1:如果你从自然语言处理(NLP)入手,这是一本很好的读物,可以帮助你了解单词嵌入的基本知识以及它们的重要性。理由2:以前并不是所有的东西都是基于Transformers的,阅读早期的作品是一个很好的方法去找到一个“被遗忘的想法”,该想法可以使现有技术进一步发展。

Transformers:

http://papers.nips.cc/paper/7181-attention-is-all-you-need

理由3:许多作者在后来扩展了本文中提出的许多概念。如今,词嵌入已成为自然语言处理(NLP)中的主要内容。进一步阅读:在同一时期,Google发布了Word2Vec,另一个著名的语义向量生成模型。不久之后,这些想法被生物学界采纳,作为表示大蛋白和基因序列的方法。而现在BERT是词汇表征和语义理解的主导方法。

Word2Vec:

https://arxiv.org/abs/1301.3781

BERT:

https://arxiv.org/abs/1810.04805

  • 2.AdaBoost (1997)

Freund, Yoav; Schapire, Robert E (1997). “A decision-theoretic generalization of on-line learning and an application to boosting”.

论文链接:

https://www.sciencedirect.com/science/article/pii/S002200009791504X

经典的机器学习模式根本就不灵活,大多数公式都有显著的局限性,这使得它们无法扩展到越来越复杂的任务中。首先解决这个问题的办法之一是将现有的最佳模式进行投票整合。1997年,Freund和Schapire提出了AdaBoost算法,这是一种元启发式学习算法,能够将许多“弱”模型运用到“强”分类器中。简而言之,该算法迭代地训练多个分类器,并将每个训练样本重新加权为“简单”或“困难”,随着训练的进行,这套系统会通过更多地关注较难分类的样本来进化。该算法非常有效,但是遇到复杂的问题也很容易过度拟合。理由1:可以说,神经网络是弱分类器(神经元/层)的集合,然而神经网络文献的发展是独立于整体的。读一篇关于这个主题的论文可能会对为什么神经网络工作得这么好产生一些见解。理由2:许多新手把传统的机器学习方法视为过时和“软弱”的,在几乎所有事情上都偏爱神经网络。AdaBoost是一个很好的例子,说明经典的机器学习并不是很弱,而且与神经网络不同的是,这些模型具有很强的可解释性。理由3:有多少报纸是从一个赌徒的故事开始的,他因为一次又一次输给朋友的骑马赌博而受挫?我也真希望我敢写这样的论文。进一步阅读:其他流行的集成方法包括随机森林分类器、梯度提升技术和广受好评的XGBoost软件包,它以赢得数次机器学习竞赛而闻名,同时相对容易使用和调整。这个家族中最新加入的是微软的LightGBM,它适用于大规模分布的数据集。

随机森林分类器:

https://en.wikipedia.org/wiki/Random_forest

梯度提升技术:

https://en.wikipedia.org/wiki/Gradient_boosting

XGBoost软件包:

https://github.com/dmlc/xgboost

LightGBM:

https://github.com/microsoft/LightGBM

  • 3.Capsule Networks (2017)

Sabour, Sara, Nicholas Frosst, and Geoffrey E. Hinton. “Dynamic routing between capsules.” 神经信息处理系统的研究进展。

论文链接:

https://arxiv.org/abs/1710.09829

神经网络文献从感知器模型开始,到卷积神经网络(CNN)。下一个飞跃是一个备受争议的话题,其中建议之一就是由Sara Sabour,Nicholas Frosst和图灵奖获得者Geoffrey Hinton提出的Capsule Network。理解胶囊网络的一个简单方法是用“胶囊”代替“目标检测器”。每层“目标检测器”都试图识别图像中的相关特征,以及它的姿态(方向、比例、倾斜等),通过叠加探测器,可以导出物体的鲁棒表示。从本质上讲,胶囊并不像cnn那样将本地信息聚合到高级功能中,取而代之的是,它们检测目标部分并按层次组合它们以识别更大的结构和关系。理由1:作为科学家,我们都应该寻找下一个重大事件。虽然我们不能说胶囊网络将是下一个摇滚明星,但我们可以说他们试图解决的问题是相关的,并且对于所有相关问题,最终会有人回答。理由2:本文提醒我们CNN并不完美,它们对旋转和缩放不变。尽管我们使用数据增强来缓解这种情况,但俗话说,没有一种创可贴能治愈一个男人。理由3:在深度学习成为主流之前,许多目标检测方法都依赖于识别易于发现的“目标部分”并针对数据库/本体执行模式匹配。Hinton和他的团队正在做的是使这种早期方法现代化,这就是为什么我们都应该不定期阅读经典。进一步阅读:在过去的一年中,Attention机制引起了很大注意,尽管它没有尝试替代或增加卷积,但确实为全局推理提供了一条途径,这是现代网络中众多Aquiles脚跟之一。

  • 4.Relational Inductive Biases (2018)

Battaglia, Peter W., et al. “Relational inductive biases, deep learning, and graph networks.” arXiv preprint arXiv:1806.01261 (2018).

论文链接:

https://arxiv.org/pdf/1806.01261.pdf

这篇文章总结了深层思维团队相信的深度学习下一个重要技术:图神经网络(GNNs)。用作者自己的话说:(…)。我们认为,组合泛化必须是人工智能实现类人能力的首要任务,结构化表示和计算是实现这一目标的关键。正如生物学合作使用自然和培养一样,我们反对在“手工工程”和“端到端”学习之间的错误选择,而是提倡一种从两者互补优势中获益的方法。我们将探讨如何在深度学习架构中使用关系归纳偏差来促进对实体、关系和组合规则的学习。旁注:归纳偏差是学习算法对数据所做的所有假设。例如,线性模型假设数据是线性的。如果一个模型假设数据有一个特定的关系,它就有一个关系归纳偏差。因此,图是一种有用的表示。理由1:目前的CNN模型是“端到端”的,这意味着它们使用的是原始的,大部分是未经处理的数据。特征不是由人类“设计”的,而是由算法自动“学习”的。我们大多数人都被教导特征学习会更好。在本文中,作者提出了相反的观点。理由2:早期的人工智能文献大多与计算推理有关,然而计算直觉占了上风。NN不会对输入进行仔细考虑;它们会产生一种相当精确的数学“预感”。图形可能是一种将这种差距与直觉推理联系起来的方法。理由3:组合问题可以说是计算机科学中最关键的问题,大多数都处于我们认为可处理或可能的边缘。然而,我们人类可以自然地、毫不费力地推理。图神经网络是答案吗?进一步阅读:GNNs是一个令人兴奋和不断发展的领域。从图论中,我们知道几乎任何事物都可以被建模为一个图。谢尔盖·伊万诺夫(Sergei Ivanov)在2020年ICLR会议上发表了大量参考文献,列出了GNN的新趋势。

2020年图机学习的主要趋势:

https://towardsdatascience.com/top-trends-of-graph-machine-learning-in-2020-1194175351a3

  • 5.Training Batch Norm and Only BatchNorm (2020)

Frankle, Jonathan, David J. Schwab, and Ari S. Morcos. “Training BatchNorm and Only BatchNorm: On the Expressive Power of Random Features in CNNs.” arXiv preprint arXiv:2003.00152 (2020).

论文链接:

https://arxiv.org/abs/2003.00152

你相信在CIFAR-10上,仅ResNet-151的批处理标准化层就可以达到+60%的精确度吗?换句话说,如果你将所有其他层锁定在它们的随机初始权值,并训练网络50个左右的周期,它的性能将比随机的好。我不得不把这篇论文复制出来亲眼看看,“魔力”来自于经常被遗忘的批次范数的γ和β参数:批处理标准化操作的完整定义。γ和β是两个可学习的参数,可在标准化发生后允许图层缩放和移动每个激活图。


理由1:这是一个疯狂的想法,值得一读。开箱即用的想法总是受欢迎的。理由2:你可能会问自己批归一化层如何学习,并且你可能会想知道为什么有人会关心这一点。对于数据科学中的许多事情,我们认为批归一化是理所当然的,我们相信这只会加速训练。但是,它可以做得更多。理由3:这篇文章可能会激起你的兴趣,让你看看所有的公共层都有哪些参数和超参数。进一步阅读:大多数课程教导批归一化层是针对所谓的内部协方差转移问题。最近的证据表明情况并非如此(https://arxiv.org/abs/1805.11604),相反,作者认为BN层使整体损失情况更为平滑。另一个巧妙的想法是彩票假说,它也是由弗兰克尔等人提出的。

彩票假说:

https://arxiv.org/abs/1803.03635

  • 6.Spectral Norm (2018)

Miyato, Takeru, et al. “Spectral normalization for generative adversarial networks.” arXiv preprint arXiv:1802.05957 (2018).

论文链接:

https://arxiv.org/abs/1802.05957

在GAN文献中,Wasserstein损失改善了训练GANs的几个关键挑战,然而它规定梯度必须有一个小于或等于1的范数(1-Lipschitz)。损失的最初作者建议将权重裁剪为[-0.01,0.01],以此来增强小梯度。作为响应,也有人提出了更干净的解决方案,使用频谱范数作为约束权重矩阵以生成最多单位梯度的平滑替代方法。

Wasserstein损失:

https://arxiv.org/abs/1701.07875

理由1:标准化是一个比较大的话题,许多特殊属性可以通过专门的标准化和精心设计的激活函数来实现。理由2:除了作为一个标准,它也是一个正则化,这是神经网络设计中经常被忽视的话题。除了dropout,读一篇关于该问题的成功论文让人耳目一新。

dropout:

https://en.wikipedia.org/wiki/Dropout_(neural_networks)

进一步阅读:标准化技术的其他最新进展是组标准化和自适应实例标准化技术,前者以小批量解决了批量范数的一些缺点,而后者则是任意风格转换的关键突破之一。

  • 7.Perceptual Losses (2016)

Johnson, Justin, Alexandre Alahi, and Li Fei-Fei. “Perceptual losses for real-time style transfer and super-resolution.” 欧洲计算机视觉会议. Springer, Cham, 2016.大多数神经网络背后的驱动力是损失函数。在描述什么是好的和什么是坏的损失函数越是成功,我们就越快收敛到有用的模型中。在文献中,大多数损失相对简单,只能测量低水平的属性。除此之外,获取高级语义也是出了名的棘手。Perceptual Losses论文认为,可以使用预先训练的网络来度量语义相似度,而不是手工设计复杂的损失函数。在实践中,生成值和真实值的结果通过预先训练的VGG网络传递,并比较特定层的激活情况。相似图像应该有相似的激活。早期图层捕捉广泛的特征,而后期图层捕捉更多细微的细节。理由1:损失是生成优秀模型最重要的方面之一。没有一个合适的反馈信号,任何优化过程都不会收敛。这就是一个好老师的角色:给予反馈。理由2:成功的损失往往具有里程碑意义。在感知损失被发明之后,GANs所获得了品质的跃升。理解这部作品对于理解大部分后期技术是必不可少的。理由3:这些神经损失既神秘又有用。虽然作者对这些模型的工作原理提供了合理的解释,但它们的许多方面仍然是开放的,就像神经网络中的大多数东西一样。进一步阅读:神经网络的一个迷人的方面是它们的可组合性。本文利用神经网络来解决神经网络问题。拓扑损失理论将这种思想推广到图像分割问题中。神经结构搜索(NAS)文献使用神经网络来寻找新的神经网络。至于计算机视觉的其他损失,这里有一个全面的指南。感谢Sowmya Yellapragada整理了这个强大的清单:

https://medium.com/ml-cheat-sheet/winning-at-loss-functions-2-important-loss-functions-in-computer-vision-b2b9d293e15a

  • 8.Nadam (2016)

Dozat, Timothy. “Incorporating nesterov momentum into adam.” (2016).我们大多数人都熟悉SGD、Adam和RMSprop等术语,有些人还知道一些不太熟悉的名字,如AdaGrad、AdaDelta和AdaMax,但是很少有人花一些时间来理解这些名称的含义以及为什么Adam是当今的默认选择。Tensorflow捆绑了Nadam,它改进了Adam,但是大多数用户并不知道。理由1:本论文对大多数神经网络优化器进行了全面而直接的解释。每一种方法都是对其他方法的直接改进。很少有论文能在两页半的篇幅里涵盖如此重数学的知识。理由2:我们都认为优化器是理所当然的,了解它们的基本原理对改进神经网络非常有用,这就是为什么我们在RMSprop不收敛时用Adam替换它,或者用SGD替换它。进一步阅读:自2016年以来,已经提出了许多对优化器的其他改进,有些将在某个时候合并到主流库中。看看 Radam, Lookahead,和Ranger 的一些新想法。

Radam:

https://arxiv.org/abs/1908.03265v1

Lookahead:

https://arxiv.org/abs/1907.08610

Ranger:

https://github.com/lessw2020/Ranger-Deep-Learning-Optimizer

  • 9.The Double Descent Hypothesis (2019)

Nakkiran, Preetum, et al. “Deep double descent: Where bigger models and more data hurt.” arXiv preprint arXiv:1912.02292 (2019).传统的观点认为小模型欠拟合,大模型过拟合,然而,在彩虹之上的某个地方,更大的模型仍然闪耀着光芒。本文中,Nakkiran等人有证据表明,随着尺寸的增长,一些模型表现出“双下降”现象,测试精度下降,然后上升,然后再次下降。此外,他们认为拐点是在“插值阈值”:一个模型足够大来插值数据的点,换句话说,当一个模型的训练超出了该领域的建议,它就会开始改进。理由1:大多数课程都教授偏差/方差权衡,显然,该原则仅在一定程度上适用——需要时间来复习基础知识。理由2:如果增加的周期数也越过了插值点,我们都应该尽早放弃,看看会发生什么。总的来说,我们都可以做科学的分析。理由3:这和5很好地提醒了我们还有很多我们不知道的地方。并非我们所学的一切都是正确的,并且并非所有直观的知识都是正确的。进一步阅读:一个更轻松的阅读是图像分类的“技巧包”。在这本书中,你将找到几个简单且可操作的建议,用于从模型中提取额外的性能下降元素。

图像分类的“技巧包”:

https://arxiv.org/abs/1812.01187

  • 10.On The Measure of Intelligence (2019)

François, Chollet. “On the Measure of Intelligence.” arXiv preprint arXiv:1911.01547 (2019).

https://arxiv.org/abs/1911.01547

大多数人都在努力多走一英里,弗朗索瓦·乔利特正在向月球射击。在这个列表中,所有提到的文章都进一步推动了实践和理论的发展。一些技术已经被广泛采用,而另一些则为融合提供了良好的改进,然而,比肩人类智力,仍然是一个神秘而难以捉摸的话题,更不用说奥秘或神秘了。时至今日,人工智能领域朝着通用智能方向的进步还只是用“成就”来衡量。每隔一段时间,一种算法在复杂的任务中击败了人类,比如国际象棋、dota2或围棋。每当这种情况发生时,我们都说我们又近了一步

随机森林原始论文_2020年还需要阅读的10篇人工智能论文(附链接)相关推荐

  1. 随机森林原始论文_【科普天地】2020年还需要阅读的10篇人工智能论文(附链接)...

    本文约6400字,建议阅读8分钟. 本文介绍了2020年发表的人工智能(AI)论文. 几周前,我发表了一篇文章,里面有要在2020年阅读的人工智能(AI)论文.如果你把所有额外的阅读建议都算进去,总共 ...

  2. 2020年还需要阅读的10篇人工智能论文

    点上方蓝字计算机视觉联盟获取更多干货 在右上方 ··· 设为星标 ★,与你不见不散 仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:深度学习与计算机视觉 AI博士笔记系列推荐 周志华<机 ...

  3. 2020年还需要阅读的10篇人工智能论文(附链接)

    来源:计算机视觉联盟 本文约6400字,建议阅读8分钟. 本文介绍了2020年发表的人工智能(AI)论文. 几周前,我发表了一篇文章,里面有要在2020年阅读的人工智能(AI)论文.如果你把所有额外的 ...

  4. 专家票选! 2020 年度 10 篇人工智能经典论文(6-10)

    内容提要:近日,多家机构发布了关于人工智能的年终回顾总结,从种种表现来看,疫情之下,AI 依然蓬勃发展,全球 AI 产业规模达到 1500 多亿美元.这背后,又有哪些突破性的研究值得关注? 关键词:A ...

  5. 从零开始,如何阅读一篇人工智能论文,及构建论文与代码的实现

    GitChat 作者:李嘉璇 原文:从零开始,如何阅读一篇人工智能论文,及构建论文与代码的实现 关注公众号:GitChat 技术杂谈,一本正经的讲技术 本次 Chat 的第一部分: 首先讲解如何从零基 ...

  6. 腾讯优图10篇AAAI论文解析,涉及数学速算批改、视频识别和语义分割 | 附下载...

    点击上方↑↑↑"视学算法"关注我 来源:公众号 量子位 授权转 AI顶会AAAI开幕在即,入选论文悉数披露. 今日介绍10篇论文,来自腾讯旗下视觉研发平台腾讯优图,涉及数学速算批改 ...

  7. 必读:2022年被引用最多的100篇人工智能论文

    必读:2022年被引用最多的100篇人工智能论文 谁在发表最具影响力的人工智能研究? 随着人工智能创新的飞速发展,尽快获取一些「信号」至关重要.没有人有时间和精力去阅读所有相关的AI研究内容,但细致分 ...

  8. 随机森林原始论文_初识随机森林

    在机器学习中,随机森林是一个包含多个决策树的分类器, 并且其输出的类别是由个别树输出的类别的众数而定. 发展出推论出随机森林的算法. 而 "Random Forests" 是他们的 ...

  9. 随机森林原始论文_【20108】喜讯|刘倩同学论文被制冷学报期刊录用

    点击上方蓝字"HUST冷暖人生"关注我们吧 2019级硕士研究生刘倩同学所撰写的论文"多联机系统故障类型识别及故障细化诊断模型研究"被<制冷学报>期 ...

  10. 随机森林原始论文_【20107】喜讯|朱波同学论文被制冷与空调期刊录用

    点击上方蓝字" HUST冷暖人生 "关注我们吧 2019级硕士研究生朱波同学所撰写的论文"冷水机组多故障耦合研究"被<制冷与空调>期刊录用,在此对朱 ...

最新文章

  1. python web页面输出_python+socket+jq实现web页面实时输出结果
  2. 微服务框架下的思维变化-OSS.Core基础思路
  3. 计算机安全 原理 资料_2019年山东地区计算机考研汇总分析
  4. mysql5.6主从复制与基于amoeba实现读写分离
  5. 微星小飞机界面翻译_6 款实用小程序良心推荐,每一款都好用
  6. 支付宝拿技术开刀把扫码无情地革掉
  7. 常微分方程简要复习_笔记_第2章:一阶微分方程的初等解法
  8. 如何在大学里成为IT技术大神?
  9. 华为平板可不可以安装Android,华为平板能跟iPad过招?MatePad Pro在安卓称王但用户不一定买单...
  10. 手淘双十一性能优化项目揭秘
  11. adc 采样时间 采样周期数 采样频率计算(以stm32为例)
  12. 输入十个国名 要求按字母顺序输出C语言,用C语言编程实现国家名称按序输出,要求键盘输入五个国家的名字,按字母顺序排列打印输出。...
  13. jQuery的jsTree入门使用
  14. unicode 生僻字_[微软拼音小技巧] 如何用Unicode输入生僻字
  15. freeSWITCH detect_speech源码分析
  16. JNLP和java web start
  17. java使用grok解析日志文件
  18. 电商API_拼多多商品详细
  19. 用python画名字组成的爱心_520用Python画一颗特别的爱心送给她
  20. 在ubuntu20.04环境下安装opencv教程并测试

热门文章

  1. mongodb删除某个字段
  2. 服务器出现502错误,怎么办。
  3. uni-app上传附件与附件预览
  4. 二级运放压摆率分析(SR)
  5. 宁波大学2014年数学分析考研试题
  6. 网页版微信为什么打不开连接服务器失败,电脑能上微信,但是打不开网页怎么回事?...
  7. 网络流量在线分析系统的设计与实现
  8. 面向物联网的可重构流式深度卷积神经网络加速器
  9. 高速串行总线技术发展与应用分析
  10. AN APPROACH OF VECTOR FIELD TEXTURE VISUALIZATION BASED ON FIELD DRIVEN STRENGTH算法实现