当你站在人脸识别门禁闸口,扫脸,绿灯亮通过,就可以任意进出宿舍楼、图书馆、教学区等各种校内场所,你也许会想:机器认识我吗?

实际并非如此。当前的AI识别能做的只是比对,它缺少信息进入大脑之后的加工、理解、思考步骤,因此仅仅停留在感知阶段,而并非“认知”。而这种以感知智能技术为主的人工智能,无论是在智能理解能力还是安全性方面,与人类智能都相去甚远。

想要让人工智能有类似大脑的活动,走到认知阶段,需要让它掌握知识、进行推理。机器必须要掌握大量的知识,特别是常识知识才能实现真正类人的智能。所以,“理解”与“解释”是AI需要攻克的下一个挑战,而认识图谱为“可解释的AI”提供了全新的视角和机遇。

“Knowing yourself is the beginning of all wisdom.”亚里士多德的这句话,正是认知图谱使命最好的概括。

那么,想深入学习和研究认知图谱,研读该领域的经典论文,对于研究者和从业者都必不可缺。经过我们对人工智能领域国际顶会/期刊中“认知图谱”相关关键词论文的计算,以及热心读者徐菁博士的整理,AMiner推出了100篇认知图谱经典必读论文。这些论文可以说基本都是经典中的经典,他们多是领域大佬+顶级会议的组合,读完它们,相信你对认知图谱的认认识肯定会有质的飞越。

此外,AMiner还为你特别准备了“一键综述”服务,一键批量生成“论文综述”,另有“论文精读”加持,如此周到细致,还不赶紧来体验下。

地址奉上:https://www.aminer.cn/search/pub?q=Cognitive%20Graph&from=csdn

(在使用体验过程若有任何意见,请在文末留言或邮件至report@aminer.cn)

该List除了整合了认知图谱领域的100篇经典论文,小脉还对这些论文进行了简要分析。

先来看看它们都出自哪些会议?根据对论文出处的分析,它们大多选自NeurIPS、ICLR、ACL、EMNLP、IJCAI、AAAI等机器学习与自然语言处理领域的国际顶会。

根据对这些经典论文发表年份的统计,近十年这些论文主要发表在2016-2019这四年间,占比达60%;在2014-2016年间也有不少经典论文发表。

再来看看入选作者,有一位大佬有4篇论文入选,他正是DeepMind的研究科学家Oriol Vinyals,在今年被评为AI 2000机器学习全球最具影响力学者之一。还有三位作者有3篇论文入选,他们分别是微软研究院合伙人研究经理高剑峰,佐治亚理工大学机器学习中心的教授宋乐,Facebook研究科学家、纽约大学客座教授Jason Weston,他们都是机器学习领域的大牛。另有21位作者都有2篇入选。

我们按照这100篇经典论文的被引量,挑选了其中的TOP10作简单评述,供大家学习参考。

我们近期还会推出《认知图谱研究报告》,欢迎关注。

《Neural Machine Translation by Jointly Learning to Align and Translate》(ICLR 2015)

作者:Dzmitry Bahdanau,Kyunghyun Cho,Yoshua Bengio

单位:Jacobs University Bremen,Université de Montréal

引用量:9818

地址:https://www.aminer.cn/pub/5550411c45ce0a409eb3897f/neural-machine-translation-by-jointly-learning-to-align-and-translate

推荐理由:这篇论文的一作正是Yoshua Bengio的博士生Dzmitry Bahdanau。文中首次提出在神经网络机器翻译(NMT) 中使用Attention的机制,可以使模型自动确定源句子中和目标词语最相关的部分,相比于基本encoder-decoder方法提高了翻译效果。该文提出的方法优化了神经机器翻译模型,其效果的提升对于长句子的翻译尤其明显。

《Sequence to Sequence Learning with Neural Networks》(NeurIPS2014)

作者:Ilya Sutskever,Oriol Vinyals,Quoc V. Le

单位:Google

引用量:8846

地址:https://www.aminer.cn/pub/5550410f45ce0a409eb384f8/sequence-to-sequence-learning-with-neural-networks

推荐理由:该文是谷歌发表于2014年NeurIPS的一篇神作,现已被广泛使用的Sequence to Sequence模型论文。文中基于多层的长短期记忆网络(LSTM),提出了一种对序列结构做最小假设的一般端到端序列学习方法,在长短句翻译方面均表现优异。

《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》(NAACL-HLT 2019)

作者:Jacob Devlin,Ming-Wei Chang,Kenton Lee,Kristina Toutanova

单位:Google

引用量:2952

地址:https://www.aminer.cn/pub/5bdc31b417c44a1f58a0b8c2/bert-pre-training-of-deep-bidirectional-transformers-for-language-understanding

推荐理由:该论文提出的BERT模型被各地学者、媒体美誉为NLP新一代大杀器。文中提出了一种语言表达模型BERT,即Transformer的双向编码表示,它通过考虑所有层整个上下文对为标注过的文本进行深度双向表达的预训练。实验结果证明,使用预训练过的BERT模型,仅仅在后面再包一层输出层,并对其进行微调训练,就可以取得不错的效果。BERT在机器阅读理解顶级水平测试SQuAD1.1中表现出惊人成绩:全部两个衡量指标上全面超越人类,并且还在11种不同NLP测试中创出最佳成绩。

《Ontology Learning for the Semantic Web》(IEEE 2001)

作者:Alexander D. Maedche,Steffen Staab

单位:University of Karlsruhe

引用量:2932

地址:https://www.aminer.cn/pub/53e9aeddb7602d970390969d/ontology-learning-for-the-semantic-web

推荐理由:本文提出了一种利用半自动本体构建工具,扩展典型本体工程环境的本体学习框架。该框架包括本体的导入、提取、裁剪、细化和评价。实验结果表明,利用语义网和本体,该方法能够实现全面的、可移植的机器理解。

《Effective Approaches to Attention-based Neural Machine Translation》(EMNLP 2015)

作者:Thang Luong,Hieu Pham,Christopher D. Manning

单位:Stanford University

引用量:2866

地址:https://www.aminer.cn/pub/5736974d6e3b12023e638ae7/effective-approaches-to-attention-based-neural-machine-translation

推荐理由:该文是NLP大牛Christopher D. Manning与他的博士生Thang Luong等人的佳作。也是继Bahdanau等人提出Attention用于NLP的后续工作,作者提出了相对于之前工作的两种新的但却有效的注意力机制,全局注意力(global)和局部注意力(local)。其中,局部注意力机制的运用使得神经机器翻译模型远胜于非注意力机制模型(5个BLEU点)。在融合了各个注意力机制模型之后,它在英文翻译到德文的多项任务中取得了SOTA的结果。

《Attention Is All You Need》(NeurIPS2017)

作者:Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit,Llion Jones,Aidan N. Gomez,Lukasz Kaiser,Illia Polosukhin

单位:Google,University of Toronto

引用量:2706

地址:https://www.aminer.cn/pub/599c7987601a182cd2648373/attention-is-all-you-need

推荐理由:本篇文章的创新点在于抛弃了之前传统的encoder-decoder模型必须结合CNN或者RNN的固有模式,只用Attention。文章提出一种基于注意机制的transformer模型,目的在于减少计算量和提高并行效率的同时不损害最终的实验结果。结果表明,它能更好地完成机器翻译任务,在质量上更优同时可并行化,所需的训练时间明显更少。

《Translating Embeddings for Modeling Multi-relational Data》 (NeurIPS2013)

作者:Antoine Bordes,Nicolas Usunier,Alberto García-Durán,Jason Weston,Oksana Yakhnenko

单位:Universite de Technologie de Compi` egne (UTC),Google

引用量:1660

地址:https://www.aminer.cn/pub/53e9a7ddb7602d970311b83d/translating-embeddings-for-modeling-multi-relational-data

推荐理由:本文提出了TransE,一种通过将关系解释为在实体的低维嵌入上操作的转换来建模关系的方法。尽管它很简单,但是这种假设被证明是强大的,因为大量的实验表明在两个知识库连接预测方面,TransE明显优于目前最新的方法。它解决了多关系数据在低维向量空间中的嵌入问题,且模型易于训练,包含较少的参数,可以扩展到非常大的数据库。

《Ontology Based Context Modeling and Reasoning using OWL》(PerCom 2004)

作者:Xiaohang Wang,Daqing Zhang,Tao Gu,Hung Keng Pung

单位:National University of Singapore

引用量:1460

推荐理由:https://www.aminer.cn/pub/53e9ba45b7602d97046580ad/ontology-based-context-modeling-and-reasoning-using-owl

简评:该文使用了OWL的基于本体的上下文建模和推理方法,在普适计算环境中建模上下文,并支持基于逻辑的上下文推理。

《A Neural Attention Model for Abstractive Sentence Summarization》 (EMNLP 2015)

作者:Alexander M. Rush,Sumit Chopra,Jason Weston

单位:Facebook

引用量:1229

地址:https://www.aminer.cn/pub/5736974d6e3b12023e63866b/a-neural-attention-model-for-abstractive-sentence-summarization

推荐理由:该文是神经网络用于生成式模型的开篇之作,作者提出了利用Gigaword构建大量平行句对的方法,使得利用神经网络训练成为可能,之后多篇工作都使用了该方法构建训练数据。实验结果表明,该方法使得文本文摘的性能提升,容易进行端到端训练,并可扩展到大量的训练数据。

《Reasoning With Neural Tensor Networks for Knowledge Base Completion》(NeurIPS2013)

作者:Richard Socher,Danqi Chen,Christopher D. Manning,Andrew Y. Ng

单位:Stanford University

引用量:1043

地址:https://www.aminer.cn/pub/53e9bafbb7602d970473538a/reasoning-with-neural-tensor-networks-for-knowledge-base-completion

推荐理由:这篇论文是是吴恩达与曼宁团队的佳作。这篇论文主要创新点表现在,相比前人在知识库里使用实体去预测关系,作者引入了一个损失函数为双线性的三层神经网络(NTN)模型,并且对于实体向量初始化的处理采用非监督模型训练得到的词向量的平均值,大大提高了系统的准确率。

看完了以上佳作,更多经典论文请进入“认知图谱”专题页查看:

http://www.aminer.cn/search/pub?q=Cognitive%20Graph&from=csdn

人工智能领域 100 个主题的经典必读论文:https://www.aminer.cn/topic
“一键综述”、论文结构化解剖(速览/精读/相关论文检索)、支持 “赞”、“踩”、“添加必读”、“认领topic”等。

百篇最值得一读的“认知图谱”经典论文相关推荐

  1. 必读论文|百篇最值得一读的“认知图谱”经典论

    当你站在人脸识别门禁闸口,扫脸,绿灯亮通过,就可以任意进出宿舍楼.图书馆.教学区等各种校内场所,你也许会想:机器认识我吗? 认知图谱Topic必读论文 当你站在人脸识别门禁闸口,扫脸,绿灯亮通过,就可 ...

  2. 带读 IBM 关系型数据库经典论文

    壹  扪心自问 一条 SQL 可能在很多人看来是 select , 那是业务:部分人看来,却是一棵棵树,语法树,那是 DBA:少部分人会分析磁盘开销,笛卡尔统计值,时空复杂度,那是内核设计. 扪心自问 ...

  3. 值得一读的20个经典故事

    来源:世界经理人 作者: 发布时间:2007-06-04       1.断 箭 不相信自己的意志,永远也做不成将军. 春秋战国时代,一位父亲和他的儿子出征打战.父亲已做了将军,儿子还只是马前卒.又一 ...

  4. 外行朋友值得一读的5本经典数学书

    有很多人让我给外行朋友推荐一些优秀的数学书,他们之中有些是没在大学学过高等课程的,只对学习数学感兴趣的朋友,还有些对历史人物比对数学成果更感兴趣.具有讽刺意味的是,当你是滑铁卢大学数学专业的学生之后, ...

  5. 数学外行朋友值得一读的5本经典数学书

    有很多人让我给外行朋友推荐一些优秀的数学书,他们之中有些是没在大学学过高等课程的,只对学习数学感兴趣的朋友,还有些对历史人物比对数学成果更感兴趣.具有讽刺意味的是,当你是滑铁卢大学数学专业的学生之后, ...

  6. 值得一读的20个经典小故事 (断 箭)

    不相信自己的意志,永远也做不成将军. 春秋战国时代,一位父亲和他的儿子出征打战.父亲已做了将军,儿子还只是马前卒. 又一阵号角吹响,战鼓雷鸣了,父亲庄严地托起一个箭囊,其中插着一只箭.父亲郑重对儿子说 ...

  7. 值得一读的20个经典小故事(生命的价值)

    不要让昨日的沮丧令明天的梦想黯然失色! 在一次讨论会上,一位著名的演说家没讲一句开场白,手里却高举着一张20美元的钞票. 面对会议室里的200个人,他问:"谁要这20美元?"一只只 ...

  8. 必读论文 | 卷积神经网络百篇经典论文推荐

    作为深度学习的代表算法之一,卷积神经网络(Convolutional Neural Networks,CNN)在计算机视觉.分类等领域上,都取得了当前最好的效果. 卷积神经网络的前世今生 卷积神经网络 ...

  9. 必读论文 | 生成对抗网络经典论文推荐10篇

    生成式对抗网络(Generative adversarial networks, GAN)是当前人工智能学界最为重要的研究热点之一.其突出的生成能力不仅可用于生成各类图像和自然语言数据,还启发和推动了 ...

最新文章

  1. 低代码平台如何一步步摧毁开发团队的效率与创新!
  2. 二叉树的基本特性和二叉树的几种基本操作的机制_关于二叉树,你该了解这些!...
  3. [bzoj2242][SDOI2011]计算器
  4. Chrome Version 19.0.1055.1 dev Flash Missing plug-in的修复
  5. heartbeat与keepalived对比
  6. Vue使用vue-cli创建vue的模板项目---vue工作笔记0018
  7. 用贝叶斯定理解决三门问题并用Python进行模拟(Bayes‘ Rule Monty Hall Problem Simulation Python)
  8. Vue报错:‘vue-cli-service‘ 不是内部或外部命令,也不是可运行的程序 或批处理文件。
  9. 刚刚人均国民收入突破1万美元,作为打工人的你有感知吗?
  10. oracle 修改sga参数,oracle 参数文件的修改,sga pga参数的修改
  11. 联想电脑的计算机,联想笔记本系统按F几下|联想计算机的系统按钮是什么?
  12. 微信小程序图集短视频去水印源码教程
  13. ireasoning mib browser license expired
  14. ncbi blast MATLAB,NCBI在线版Blast使用(超详细奥)
  15. 动态海报,一次 Computational Design 实验
  16. 支持 Docker 运行的 ChatGPT 平替之 Alpaca-Turbo (羊驼)
  17. 医用电气设备中关于电源开关的符号使用要求探讨
  18. 计算机一级wps选择题必背知识点,2017全国计算机一级《WPS》复习题「附答案」...
  19. 青年男女的爱情宝典(未婚必看)
  20. asp.net中使用JMail发邮件

热门文章

  1. 服务器芯片改南北桥,Intel E7500双通道DDR服务器芯片组技术剖析
  2. 《崔庆才Python3网络爬虫开发实战教程》学习笔记(3):抓取猫眼电影榜单TOP100电影,并存入Excel表格
  3. Internet Explorer 8
  4. Ubuntu下安装rar软件,解压rar压缩文件方法
  5. Java注入bean的方式_多种方式实现Spring的Bean注入
  6. 阿里云服务器搭建使用教程(四)域名使用及备案
  7. Win7怎么安装?推荐3种Windows7安装方法
  8. LY-100系列的纬编机纱长监控器
  9. 【YOLOv5】手把手教你使用LabVIEW ONNX Runtime部署 TensorRT加速,实现YOLOv5实时物体识别(含源码)
  10. 2023开年第一涨!有省市IDC电费拟环比上浮23.41 %