当前人工智能发展如火如荼,已经衍生出了许多应用技术,具体而言,可以分为13个领域:机器学习、计算机视觉、知识工程、自然语言处理、语音识别、计算机图形学、多媒体技术、人机交互技术、机器人、数据库技术、可视化技术、数据挖掘、信息检索与推荐

  1. 机器学习

机器学习是一门多领域交叉学科,设计概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习技术专门研究计算计算机怎样模拟或实现人类的学习行为,以获取新的知识技能,重新组织已有的知识结构,从而使之不断改善自身的性能。机器学习有许多经典算法:包括监督学习、无监督学习、半监督学习、强化学习、线性回归、分类与回归树、随机森林、逻辑回归、朴素贝叶斯、k最近邻、AdaBoost、K-均值算法、支持向量机、人工神经网络,其中人工神经网络由于其具有"自学习功能"、"联想存储功能"和“高速寻找最优解”的能力而成为当今机器学习最热门的研究领域。


发展历程:机器学习这一概念首创于1952年IBM科学家亚瑟·塞缪尔,他将机器学习定义为“可以提供计算机能力而无需显示编程的研究领域”,这为机器学习的发展奠定了基础,这段时间被称为机器学习的“奠基时期”。从此机器学习开始发展起来,后来在20世纪60年代到70年代末,由于当时理论研究和计算机硬件都受到极大限制,机器学习的发展几乎处于停滞状态,进入“瓶颈时期”。1985-1986年,神经网络研究人员相继提出了使用BP算法训练的多参数线性规划(MLP)理念,昆兰提出了后来非常出名的“决策树”机器学习算法,越来越多的人重新把注意力放到了机器学习领域,机器学习再度蓬勃发展起来,这段时间被称为机器学习的“重振时期”。20世纪90年代初,Vapnik等提出了支持向量机SVM的概念,这是机器学习领域的一大重要突破,那一段时期的机器学习研究也分为神经网络和SVM两派。2000年带核函数的SVM方法提出之后,SVM方法在许多任务中都获得了更好的效果,机器学习发展进入“成型时期”。2006年,神经网络研究领域领军者Hinton提出神经网络算法并在顶尖学术期刊《Science》发表文章,这开启了深度学习在学术界和工业界的浪潮,这段时期被称为机器学习的**“爆发时期”**,深度学习的出现,让图像、语音等感知类问题取得了真正意义上的突破,人工智能进入到了一个新时代。


机器学习发展历程(图片来源:Brief History of Machine Learning)

  1. 计算机视觉。

计算机视觉技术是一门包括了计算机科学与工程、神经生理学、物理学 、信号处理、认知科学、应用数据与统计等多门学科的综合性科学技术。计算机视觉技术利用摄像机以及电脑替代人眼,从而使得计算机拥有人类的双眼所具有的份额各、分类、识别、跟踪、判别决策功能。计算机视觉包括了许多不同的研究方向,包括:物体识别和检测、语义分割、运动和跟踪、视觉问答等。近年来语义分割和视觉问答是非常热门的方向之一。

发展历程:通常来说,1982年马尔《视觉》一书的问世,标志着计算机视觉成为了一门独立学科,计算机视觉视觉发展40多年,总体上经历了三个历程:马尔计算视觉阶段、多视几何与分层三维重建和基于学习的视觉。马尔计算机视觉分为三个层层次:计算理论、表达和算法以及算法实现。马尔认为大脑的神经计算和计算机的数值计算没有本质区别,所以并没有对“算法实现”进行探讨,主要讨论的是“计算理论”和“表达与算法”两部分。多视几何与分层三维重建的代表人物是法国INRIA的O.Faugeras、美国GE研究院的R.Hartely和英国牛津大学的A.Zisserman.多视几何的理论于2000年已基本完善,而后这方面的工作主要集中在如何提高“大数据下鲁棒性重建的计算效率”。大数据需要全自动重建,而全自动重建需要反复优化,而反复优化需要花费大量计算资源。所以,如何在保证鲁棒性的前提下快速进行大场景的三维重建是后期研究的重点。基于学习的视觉是指以机器学习为主要技术手段的计算机视觉研究,主要分为两个阶段:本世纪初的以流形学习为代表的子空间法和以深度学习为代表的视觉方法。

  1. 知识工程。

知识工程是将知识集成到计算机系统从而完成只有特定领域专家才能完成的复杂热恩无的一门学科,其建立者是1994年图灵奖获得者费根鲍姆。知识工程从大数据中自动或半自动获取知识,建立基于知识的系统,以提供互联网智能知识服务。知识工程在许多应用中已经凸显出了越来越重要的应用价值,包括知识融合、语义搜索和推荐、问答和对话系统以及大数据分析与决策。

发展历程:知识工程发展可以分为五个标志性的阶段:前知识工程时期、专家系统时期、万维网1.0时期、群体智能时期以及知识图谱时期。

(1)前知识工程时期(1950-1970):这一阶段主要有两个方法——符号主义和连结主义。符号主义认为物理符号系统是智能行为的充要条件,连结主义则认为大脑是一切智能活动的基础。这一时期的知识表示方法主要有逻辑知识表示、产生式规则、语义网络等。

(2)专家系统时期——知识工程蓬勃发展期(1970-1990):70年代,人工智能开始转向建立基于知识的系统,通过“知识库+推理机”实现机器智能,这一时期涌现出很多成功的限定领域专家系统,如MYCIN 医疗诊断专家系统、识别分子结构的DENRAL专家系统等。斯坦福人工智能实验室奠基人Feigenbaum 教授在 1980 年的一个项目报告中提出知识工程的概念, 从此确立了知识工程在人工智能中的核心地位。

(3)万维网(1990-2000): 在1990年到2000年,出现了很多人工构建大规模知识库,包括广泛应用的英文WordNet、Cyc常识知识库,以及中文的HowNet。Web1.0万维网为人们提供了一个开放平台,使用HTML定义文本的内容,通过超链接把文本连接起来,使大众可以共享信息。W3C提出的可扩展标记语言XML,为互联网环境下大规模知识表示和共享奠定了基础。

(4) 群体智能(2000-2006):万维网的出现使得知识从封闭知识走向开放知识,从集中构建知识成为分布群体智能知识。这个过程中出现了群体智能,群体智能最典型的代表是维基百科,维基百科由用户去建立知识,体现了互联网大众用户对知识的贡献,成为今天大规模结构化知识图谱的重要基础。

(5) 知识图谱(2006-):从2006年起,大规模维基百科类富结构知识资源的出现和网络规模信息提取方法的进步,使得大规模知识获取方法取得了巨大进展。当前自动构建的知识库已成为语义搜索、大数据分析、智能推荐和数据集成的强大资产,在大型行业和领域中正得到广泛应用。目前知识图谱的发展和应用状况,除了通用的大规模知识图谱,各行业也在 建立行业和领域的知识图谱,比如语义搜索、问答系统、智能知识服务等。

  1. 自然语言处理

自然语言处理是指用计算机对自然语言的形、音、义等信息进行处理,即对字、词、句、篇章的输入、输出、识别、分析、理解、生成等的操作和借工,具体表现形式包括机器翻译、文本摘要、文本分类、文本校对、信息抽取、语音合成、语音识别等。


发展历程:1950年“图灵测试”的提出被认为是自然语言处理思想的开端,这段时间自然语言处理主要采用基于规则的方法。70年代后随着互联网的高速发展,丰富的语料库成为现实,自然语言处理思潮由经验主义向理性主义过渡,基于统计的方法逐渐代替了基于规则的方法。从2008年到现在,人们开始引入深度学习来做自然语言处理研究,由最初的词向量到2013年的word2vec,将深度学习与自然语言处理的结合推向了高潮,并在机器翻译、问答系统、阅读理解等领域取得了一定成功。

  1. 语音识别。

语音识别是让机器识别和理解说话人语音信号内容的新兴学科,目的是将语音信号转变为文本字符或者命令的智能技术,利用计算机理解讲话人的语义内容,使其听懂人类的语音,从而判断说话人的意图,是一种非常自然和有效的人机交流方式。

发展历程:起源:20世纪50年代。1952年世界上第一个语音识别系统Audry诞生,可以识别10个英文数字发音。1956年,Olson和Belar研制了可以识别一个说话人的10个单音节的系统。1959年,英国人Fry和Denes研制了一个能够识别4个元音和 9 个辅音的识别器。20世纪60年代,电子计算机开始被应用于语音识别,提出了一系列语音识别技术的新理论——动态规划线性预测分析技术。较好地解决了语音信号产生的模型问题。20世纪70年代,伴随着微电子技术的发展,语音识别领域取得突破性进展。这一时期的语音识别方法采用传统的模式识别策略。到了80年代,隐马尔可夫模型(HMM)技术逐渐成熟,并成为语音识别的主流方法,以知识为基础的语音识别的研究日益受到重视,人工神经网络(ANN)在语音识别中的应用研究逐渐兴起。20 世纪 90 年代,语音识别技术逐渐走向实用化,在建立模型、提取和优化特征参数方面取得了突破性的进展,使系统具有更好的自适应性。21 世纪之后,深度学习技术极大的促进了语音识别技术的进步,识别精度大大提高,应用得到广泛发展。

  1. 计算机图形学。

计算机图形学是一门研究通过计算机将数据转换成图形、并在专门显示设备上显示的原理方法和技术的学科。它主要的研究内容是研究如何在计算机中表示图形,以及利用计算机进行图形的计算处理和显示的相关原理和算法,其总体框架包括数学和算法基础、建模、渲染以及人机交互技术。

发展历程:1950年,美国MIT的旋风一号计算机配备了世界上第一台显示器——阴极射线管(CRT)来显示一些简单的图形,使得计算机摆脱了纯数值计算的单一用途,能够进行简单的图形显示,从此计算机具有了图像显示功能,但是还不能对图形进行交互操作。1962年美国MIT林肯实验室发表题为“sketchpad:一个人机交互通信的图形系统”的论文,首次使用了“Computer Graphics”这一概念,从此确立了计算机图形学正式成为一个独立学科的分支。1988年之后,光栅图形学算法开始萌芽。20世纪70年代,图形学进入了兴盛期,光栅图形学算法迅速发展,实用的CAD图形系统开始出现,真实感图形学和实体造型技术的产生成为70年代计算机图形学的两个重要进展,同时在这一时期,图形软件标准化程度提高。20世纪80年代出现了带有光栅扫描显示器的微型计算机和图形工作站,极大地推动了计算机图形学的发展。20世纪90年代以后,微机和软件系统的普及使得图形学的应用领域日益广泛,计算机图形学朝着标准化、集成化和智能化的方向发展,多媒体、人工智能、计算机可视化、虚拟现实等分支蓬勃发展,三维造型也获得了长足发展。

  1. 多媒体技术。

多媒体技术是融合计算机、声音、文本、图像、动画、视频和通信等多种功能于一体的技术,它借助日益普及的高速信息网,实现计算机的全球联网和信息资源共享,并且它给传统的计算机系统、音频和视频设备带来方向性的变革,将对大众传媒产生深远的影响。多媒体技术涉及的内容包括:多媒体数据压缩、多媒体处理、多媒体数据存储、多媒体数据检索、多媒体著作工具、多媒体通信与分布式多媒体、多媒体专用设备技术、多媒体应用技术。

发展历程启蒙发展阶段(起源于20世纪60年代,实现于20世纪80年代):1965年纳尔逊提出了一种把文本中遇到的相关文本组织在一起的发法——超文本,万维网上的多媒体信息正是采用了超文本思想与技术,组成了全球范围的超媒体空间。1984年Apple公司创造性地为Macintosh计算机增加了图形处理功能,改善了人机交互界面。1987年又引入“超级卡”,是Macintosh机成为更容易使用、易学习并能处理多媒体信息的机器。标准化阶段:从20世纪90年代,多媒体技术从以研究开发为重心转移到以应用为重心,因此标准化问题成为关键,先后制定了静态图像的标准——JPEG标准、视频/运动图像的标准——MPEG标准、多媒体数字通信的标准——H系列标准等。蓬勃发展阶段:这一时期的代表之一是多媒体芯片和处理器的进一步发展,现在多媒体技术及应用正在向更深层次发展,新的技术、新的应用、新的系统不断涌现。

  1. 人机交互。

人机交互是人与计算机之间为完成某项任务所进行的信息交换过程,是一门研究系统与用户之间的交互关系的学问。鉴于人机交互对于科技发展的重要性,人机交互是现代信息技术、人工智能技术研究的热门方向。

发展历程简单人机交互阶段:这个阶段最早是早期的手工作业,采用手工操作和依赖机器的方法使用计算机,后来发明了作业控制语言及交互命令语言,这一阶段的使用者主要是程序员。之后有了图形用户界面(GUI),由于GUI简单易学,不懂计算机的普通用户也可以熟练使用,信息产业空前发展。自然人机交互阶段:随着网络普及型发展及无线通讯技术的发展,传统的图形界面交互已经无法满足用户的需求,人机交互进入自然交互阶段。这个阶段主要有4种交互方式:多通道交互使用户能够通过言语、眼神、帘布表情等方式与计算机进行交互;情感人机交互方面,美国MIT对情感计算进行研究,目前正在开发情感机器人,IBM的“蓝眼计划”可使计算机知道人想干什么;CMU主要研究可穿戴计算机;虚拟现实是以计算机技术为核心,结合相关科学技术,生成与一定范围真实环境在视、听、触感等方面高度近似的数字化环境,虚拟现实目前已经应用到了社会生活的很多方面;智能用户界面致力于改善人机交互的高效率、有效性和自然醒的人机界面。它通过表达、推理,按照用户模型、领域模型、任务模型、谈话模型和媒体模型来实现人机交互。自然语言理解技术近年来在搜索技术方面得以广泛应用,现在,已经有越来越多的搜索引擎支持自然语言搜索特性,并有一些阶段性成果出现在商业应用中。

  1. 机器人。

目前,智能机器人已经成为世界各国的研究热点之一,是衡量一国工业化水平的重要标志。机器人是自动执行工作的机器装置,其范围很广,可以是自主的,半自主的,工业机器人、群机器人、纳米机器人等,进几十年来,机器人技术的研究与应用,大大推动了人类的工业化和现代化进程,并逐步形成了机器人的产业链,使机器人的应用范围也日趋广泛。

发展历程:现代机器人起源于20世纪40-50年代,美国许多国家实验室进行了机器人方面的初步探索。二战期间,在放射性材料的生产和处理过程中应用了一种简单的遥控操纵器,使得机械抓手代替操作人员的直接操作。1948年,主从式的遥控机械手正是诞生于此,开现代机器人制造之先河。20世纪50年代以后,机器人进行实用化阶段。1954年,美国的GeorgeC.Devol设计并制造了世界上第一台机器人实验装置,发表了《适用于重复作业的通用性工业机器人》一文,这种机器人可以经过编程,或者接受示教而完成简单任务。20世纪60年代,机器人产品正式问世,机器人技术开始形成。1960年,美国Consolidated Control公司研制出第一台机器人样机,同时,美国“机床与铸造公司”(AMF)设计制造了另一种可编程的机器人Versatran.这两种机器人作为商品开始在世界市场上销售,这一时期,可食用机械的机器人被称为工业机器人。1961年,美国麻省理工实验室发明了一台可以凭触觉决定物体的形态的机器人,1968年,斯坦福人工智能实验室研制除了带有手、眼、耳的计算机系统,智能机器人的研究形象逐渐丰满。20世纪70年代,机器人产业蓬勃兴起,1970年第一次国际工业机器人会议在美国举行,各种结构的机器人相继出现,而后的大规模集成电路的飞跃发展及微型计算机的普遍应用,使得机器人的控制性能得到提升而成本不断降低,进而导致了数百种机器人进入了实用化的普及阶段。进入80年代后,机器人技术在工业生产中开始逐步应用,并且向着越来越智能的方向发展,智能机器人发展主要经历了三个阶段:是可编程试教、再现型机器人,有感知能力和自适应能力的机器人,智能机器人。进入21世纪,机器人替代人的热潮高涨,服务机器人开始走进普通家庭的生活,机器人的特质与有机生命越来越接近。

  1. 数据库。

数据库是按一定的结构和规则组织起来的相关数据的集合,是综合各用户数据形成的数据集合,是存放数据的仓库。目前,数据库技术已经成为当今信息社会中对大量数据进行组织与管理的重要技术手段,是网络信息化管理系统的基础。数据库技术与网络通信技术、人工智能技术、面向对象程序设计技术、并行计算技术等互相渗透和结合,是当前数据库技术应用的主要特征,当前具有此类特征的新型数据库系统包括如分布式数据库系统、知识库系统和主动数据库系统等。
发展历程:数据库技术的发展根据数据模型或结构划分为三个时代:导航数据库时代、SQL/关系时代、后关系时代。数据最开始以一种原始与粗糙的方式进行管理,通过大量的分类、比较和表格绘制的机器运行数百万穿孔卡片来进行数据的处理,其运行结果在纸上打印出来或者制成新的穿孔卡片。而数据管理就是对这些穿孔卡片进行物理储存和处理。20世纪60年代,计算机开始广泛应用于数据管理,能够统一管理和共享数据的数据库管理系统(DBMS)应用而生。20世纪70年代,Codd实现了大型共享数据库的开创性关联数据模型。关系模型既可以表达层次结构模型,也可以表达导航模型、也可以表达其原生表格模型,可以根据应用程序的需要对这三种模型进行组合建模。20世纪70年代后期SQL标准化查询语言问世,它不要求用户指定对数据的存放方法,具有完全不同底层结构的数据库,结构化查询语句可以嵌套,具有极大的灵活性和强大的功能。20世纪90年代,数据库面临非字符数据的大量增加,于是面向对象的数据库应运而生,进入21世纪以后,NoSQL和NewSQL技术快速发展,NoSQL是为了解决大规模数据集合多重数据种类带来的挑战,NewSQL不仅具有NoSQL对海量数据的存储管理能力,还保持了传统数据库的特性。

  1. 可视化技术。

可视化技术是把不同类型的数据转化为可视的表示形式,并获得对数据更深层次认识的过程。可视化将复杂的信息以图像的形式呈现出来,让这些信息更容易、更快速地被人理解,因此,它也是一种放大人类感知的图形化表示方法。目前,数据可视化可以进一步划分为科学数据可视化、信息可视化以及可视分析学三个子领域。科学可视化是针对科学数据的可视化展现技术,呈现的往往是三维场景下的时空信息。信息可视化是对各应用领域所产生数据的高层次概括,记录的是抽象化的信息。可视分析学是多领域技术结合的产物,旨在结合并利用信息可视化、人机交互、以及数据挖掘领域的相关技术,将人的判断与反馈作为数据分析中重要的一环,从而达到精准数据分析、推理及判断的目的。
发展历程:19世纪前叶,因为受视觉表达方式创新的影响,统计图形及专题绘图领域应用得到快速发展。这一时期,数据的收集整理从科学技术和经济领域扩展到社会管理领域,对社会公共领域数据的收集标志着人们开始以科学手段进行社会研究。19世纪中叶,数据可视化领域发展进入加速期,统计学理论的建立是可视化发展的重要一步,此时数据由政府机构进行收集,数据的来源变得更加规范化。20世纪前叶,数据可视化成果在这一时期得到了推广,并开始被用于尝试解决天文学、物理学、生物学的理论成果。然而这一时期人类收集、展现数据的方式并没有得到根本的创新,统计学也没有大的发展,所以整个上半叶都是休眠期。从20世纪上半叶末到1974年这一时期被称为数据可视化领域的复苏期,在这一时期引起变革的最重要的因素就是计算机的发明,在现代统计学与计算机计算能力的共同推动下, 数据可视化开始复苏,20世纪60年代,各研究机构开始使用计算机程序取代手绘的图形,在这一时期,数据缩减图、多维标度法MD聚类图、树形图等更为新颖的数据可视化形式开始出现。数据和计算机的结合让数据可视化迎来了新的发展阶段。1975年到2011年这段时间,计算机成为数据处理的重要工具,数据可视化进入黄金时代,七十到八十年代,人们主要尝试用多维定量数据的静态图来表现静态数据,八十年代中期出现了动态统计图,后来两种方式开始合并,动态交互式的数据可视化方式成为新的发展对象。步入21世纪以来,互联网数据猛增,数据服务商开始需要从多个维度向用户提供服务,2012年进入数据驱动的时代,人们对数据可视化技术的依赖程度也不断加深,互联网的加入增加了数据更新的频率和获取的渠道,而实时数据的巨大价值只有通过有效的可视化处理才能体现,于是,如何建立一种有效的、可交互式的大数据可视化方法来表达大规模、不同类型的实时数据,成为了数据可视化这一学科的主要研究方向。

  1. 数据挖掘。

数据挖掘是指从大量的数据中自动搜索隐藏于其中的有着特殊关系性的数据和信息,并将其转化为计算机可处理的结构化表示,是知识发现的一个关键步骤。数据挖掘是一门综合的技术,涉及统计学、数据库技术和人工智能的综合,它的最重要的价值在于用数据挖掘技术改善预测模型。
发展历程:数据搜集阶段(20世纪60年代):在这个阶段受到数据存储能力的限制,特别是当时还处在磁盘存储的阶段,因此主要解决的是数据搜集的问题,而且更多的是针对静态数据的搜集与展现,所解决的商业问题,也是基于历史结果的统计数据上的。数据分析访问阶段(20世纪80年代),关系性数据库与结构性查询语言的出现,使得动态的数据查询与展现成为可能,在这个阶段,KDD出现了,也正是在这个时期,出现了一些成熟的算法,能够“学习”数据间关系,相关领域的专家能够推测出各种数据关系的实际意义。数据仓库决策与支持阶段(20世纪90年代),OLAP与数据仓库技术的突飞猛进使得多层次的数据回溯与动态处理成为现实,人们可以用数据来获取知识,对经营进行决策,零售公司和金融团体使用数据挖掘分析数据和观察趋势以扩大客源,满足顾客需求。21世纪以来,大数据时代到来,数据挖掘已经越来越成熟,成为一门交叉学科。

  1. 信息检索与推荐。

信息检索是计算机科学的一大领域,主要研究如何为用户访问他们感兴趣的信息提供各种便利的手段,比如对文档、网页、多媒体对象等信息的访问。信息检索的主要环节包括内容分析与编码、组成有序的信息几何以及用户提问处理和检索输出。其中信息提问与信息集合的匹配、选择是整个环节的重要部分。


发展历程数字图书馆/文档电子化时代:1954年,范内瓦·布什发表了名为“As We May Think"的文章,概括了信息检索在数字图书馆时代的特征,即对文档全文内容的快速检索。20世纪60年代,Gerard Salton创造了信息检索系统SMART,这个系统并非搜索引擎,但是具有文本索引、查询处理、结果排序等功能。在这个时代,信息检索技术主要用于封闭数据集合、单级模式或专网内的主机-终点模式。早期互联网时代:Tim Berners-Lee基于尚未被商用的互联网提出了万维网(Web)的原型建议,并于1991年建立了第一个网站http://nxoc01.cern.ch.之后谷歌、雅虎、百度等搜索业务公司快速崛起,这个时期信息检索的应用形态的特征是开放的、大规模的、实时的、多媒体的。Web2.0时代:信息搜索的发展开始更加关注用户需求,以实现内容与行为的精准web搜索,这个时期的信息检索实现了内容数据与社会各侧面的电子化数据的全面融合,这为信息推荐场景奠定了基础。信息推荐系统的演变始终伴随着网络的发展,第一代信息推荐系统使用传统网站从以下三个来源收集信息:来自购买或使用过的产品的基础内容数据;用户记录中收集的人口统计数据;以及从用户的项目偏好中收集的基于记忆的数据。第二代推荐系统通过收集社交信息,例如朋友、关注者、粉丝等。第三代推荐系统使用网上集成设备提供的信息。

参考:《清华大学-2019人工智能发展报告》

人工智能技术发展概述相关推荐

  1. 只能计算机论文,谈计算机及人工智能技术发展-人工智能论文-计算机论文.docx...

    谈计算机及人工智能技术发展-人工智能论文-计算机论文 --文章均为WORD文档,下载后可直接编辑使用亦可打印-- 摘要:计算机技术的发展,在一定程度上改变了社会的生产生活方式,其作为辅助工具的一种,应 ...

  2. 人工智能技术发展必须遵循的基本伦理原则

    人工智能在推动网络信息技术发展的同时,模糊了物理现实.数字和个人的界限,也衍生出诸多复杂的法律.伦理问题,我们所要应对的已经不单单是弱人工智能和强人工智能,还有未来的超人工智能问题. 人工智能技术发展 ...

  3. 计算机伦理的发展,人工智能技术发展的伦理困境研究

    摘要: 自1956年"人工智能"的概念提出以来,人工智能技术的推广和应用获得了极大的成功,并逐渐成为一种极其重要的工程技术,目前在自动化控制.计算机网络.电子技术.信息工程等领域中 ...

  4. 斯坦福大学:人工智能技术发展现状报告解读

    "人工智能取代人类工作"之类的新闻大标题常常让我们惊出一身冷汗.不过,至少现在你不用过于担心,因为它还处在发展水平最低的阶段.无论是击败人类顶级围棋手的AlphaGo,亦或是打败D ...

  5. 人形机器人促进人工智能技术发展

    在社交网络中吸引我们关注的是机器人仿真度逼人的脸,但我们似乎又被这张神似人脸的机器给吓到了.在这背后其实暗含着大众一种共通的心理现象--恐怖谷效应.这一效应由日本机器人学家森昌弘提出.他根据人类对高度 ...

  6. 【人工智能】德国人工智能技术发展现状和未来趋势

    https://mp.weixin.qq.com/s/dg_M6cdyQZh3Cod_bwztNA 人工智能是介于机械工程和计算机科学.心理学之间的领域.要了解人工智能,必须要了解机械工程学与语言学, ...

  7. 人工智能技术发展历史

    人工智能(Artificial Intelligence,简称 AI)的历史可以追溯到上世纪50年代,以下是其中的关键点: 1956年:达特茅斯会议 1956年,美国达特茅斯学院举办了一次会议,邀请了 ...

  8. 未来如何与计算机和谐相处,计算机人工智能技术的应用及未来发展初探

    邵向阳 许敏 摘   要:随着我国经济的飞速发展,科学技术也在不断进步,计算机人工智能技术被广泛利用在各行各业,在促进社会向现代化趋势发展中发挥着至关重要的作用.当前计算机人工智能技术正处于发展过程中 ...

  9. 应用计算机技术和人工智能技术 根据,计算机人工智能技术的应用与发展

    杨浩 张文娟 摘要:人工智能技术的发展及应用是建立在科学技术发展背景下的,也就是说在信息化技术的发展演进下,人工智能技术的发展应用已经实现了和现代化网络技术的发展相融合,并且在二者技术的发展融合中形成 ...

最新文章

  1. 切糕[HNOI2013]
  2. AD5933测量容性负载时的神秘振荡信号
  3. cgo引用定义不一致_应急照明、消防应急照明和疏散指示系统的定义与分类
  4. bzoj 4260: Codechef REBXOR
  5. [architecture]-armv8-aarch64种的SIMD/FP指令介绍
  6. android byte转16进制字符串,如何将字节数组转换为十六进制字符串,反之亦然?...
  7. C语言字符5,C语言编程(练习5:字符串与字符串函数)-Go语言中文社区
  8. Java zip 压缩 文件夹删除,移动,重命名,复制
  9. [J2ME]RSSOwlMidlet(RSS无线阅读器)设计说明
  10. 如何在Mac上用汇编语言写HelloWorld
  11. 查看idea的安装位置_idea怎么重置默认配置-idea重置默认配置的方法步骤
  12. JDBC(连接池) -- 02(I)
  13. flutter 真机无法调试 sdk报错_老许,你要转Flutter不要?只要你开金口,面试题现在就给你送来...
  14. Data Structures[翻译]
  15. musictools(无损付费音乐免费下载神器) 最新版 v3.7.0
  16. 动态推荐系统关键技术研究(一)
  17. Python学习笔记-条件语句
  18. MAC右键菜单踩坑——右键在当前目录打开终端
  19. 图解react设计理论基础
  20. Unity分屏显示效果

热门文章

  1. Kafka 使用SASL接入点PLAIN机制收发消息(集成Spring Boot)
  2. signal函数原型解读
  3. 外星人Alienware 17R4基本上可完美黑苹果10.13.6
  4. datagridview获取行中列的数据
  5. 极其简单的响应式的模块化布局、看板布局 js 工具
  6. axios的使用(请求,响应拦截器)
  7. JAVA渣渣感悟——三目运算符(三元运算符)的注意事项
  8. [WPS]一次性解决论文插图的题注与章节号对不上问题
  9. matlab绘图学习(绘制图形的辅助操作)
  10. python从键盘输入一个字符串、将小写字母全部_从键盘输入一个字符串_将其中的小写字母全部转换成大写字母...