图灵测试与机器学习

概述

首先,回顾了图灵测试的发展历程,以及随着时代的发展,图灵测试面临的挑战和未来的发展方向。之后,简述了机器学习的基本原理,并且以人工神经网络、决策树、支持向量机为例,阐明了目前机器学习的基本思路以及存在的问题。最后,笔者表达了学习后对于人工智能领域内一些问题的观点以及设想。
关键字:笛卡尔思维法则、图灵测试、具身认知、机器学习、

图灵测试的提出与发展

图灵测试最早由艾伦·麦席森·图灵于1950年提出,在《计算机器与智能》一文中,他创造性的提出了“具有真正智能的机器”这一概念。

什么是图灵测试

图灵测试最初的名字是:模仿游戏(imitation game)。根据图灵在1952年提出的想法:让计算机冒充人,如果有30%以上的裁判误认为与自己对话的是人而不是计算机,那么就认为这台计算机拥有与人相同的智力 。
图灵测试中设想的人机关系是博弈性质的“测试”,而不是规范化的“定义”,这是一种以人类为中心的认知判断比较 。

图灵测试的意义

图灵测试的意义在于:首先,图灵测试通过一个程序操作集合,将智能化的判别方法进行了具体描述,为智能提供了一个行为主义判别标准,避免了对智能本质的争议 。其次,图灵测试通过黑箱化处理,规避了很多现阶段无法解决的问题,从而加快了人工智能的发展速度。
图灵测试同时也在一定程度上,完成了从“笛卡尔测试”的思想转变。“笛卡尔测试”由两方面组成:语言符号的理性对话以及根据知识进行理性行动的能力 。图灵放弃了对客观世界物体的空间考虑,把人机关系作为去空间化的比较关系进行处理,为如今的数据驱动(data driven)机器学习建立了坚实的基础。

图灵测试的合理性

人工智能的起点是笛卡尔的“思维法则”。法则问题的提出,源于笛卡尔的首部著作《思维的指导法则》。书中提到了可解决大部分问题的“万能方法”:普遍代数方法:第一,将问题抽象转化为数学问题;第二,将数学问题进一步抽象为代数学问题;第三,将代数学问题转化为一个可求解方程式,从而对问题进行定量分析、解决 。图灵正是利用这样的算数公理化方法,构建出了“图灵机”的概念模型。图灵测试反应了建模的准确性与科学性。同时,图灵测试将人机关系放到同一个级别进行比较,也充分符合了欧几里得几何的比例理论。

图灵测试的面临的挑战

具身认知的提出

受到哲学、人工智能等学科影响,认知心理学陷入了一场“后认知主义”的变革中。具身认知作为心理学研究的一个新取向,成为了一个焦点问题。具身认知理论主要指生理体验与心理状态之间有着强烈的联系。生理体验“激活”心理感觉,反之亦然。简言之,就是人在开心的时候会微笑,而如果微笑,人也会趋向于变得更开心 。
具身认知的提出与图灵测试产生了一定的矛盾。图灵测试忽略了客观物体的空间性,但具像认知的倡导者认为,在知觉运动系统的背后存在一个“心智”,这个心智具备各种形式命题和推理规则,指挥着前者的运作。无论我们心目中的那个理性的、基于规则的和推理的东西是什么,它都完完全全地嵌入我们的身体活动中。他们认为,“心智锁在身体之中,在任何时候,它都占有一个特殊的空间,且面临一个具体的方向。这些不可否认的事实形成了具身认知的部分基础”。也就是说,人的思维和认知在很大程度上是依赖和发端于身体。身体的构造、神经的结构、感官和运动系统的活动方式决定了我们的思维方式,身体的反应和感觉才是决定我们怎么看待这个世界和自己的。

应用领域

图灵测试的核心是人的智能。但是人的智能包括多个类别,图灵测试对于测试的内容并不明确,语言交流能力也仅仅是人的智能的很小的一部分。因此,图灵测试应用的领域背景仍需加强。

时间维度

对于智能性的判定不能仅仅局限在某几分钟,是否具有智能性是一个可持续的、长期的状态。其最终目标是所有人在所有时间段都无法分辨其是人还是机器。并不能仅仅依靠短时间内的测试判断其智能性。

衡量标准

图灵测试对于“智能”的认知是定性的,很难通过图灵测试,而对人工智能的实际发展水平有一个清晰的认识。同时,图灵测试的方法存在一定的漏洞,很容易发生作弊行为(比如:尤金·古斯特曼在雷丁大学举办的测试)。因此,图灵测试还无法承担定量分析智能系统智力发展水平的需求。
北京智源人工智能研究院提出了图灵测试2.0版本的概念。智源研究院将开放并提供一个通用智能训练和测评系统——广义图灵测试。广义图灵测试就是要把认知神经科学融入到原来的图灵测试中,而不再对智能体的某个单一行为进行检测 。

机器推理与运算

人工智能有三大分支:认知计算(cognitive AI)、机器学习(machine learning AI)、深度学习(deep learning)。


举一个简单例子,人们去市场买菜,那么菜就是训练数据,把挑选优质菜时的依靠的物理属性列出来,就是我们需要考虑的数据的特征。最终菜的味道、成熟度、品质就是输出变量。只需要将这些数据进行统计,通过人工神经网络的相关算法,就可以建立一个菜的品质与不同属性的相关性模型。下一次再买菜时,便可以通过这个模型对菜的品质进行预测。在此基础上,经过不断的买菜,算法会依据每次判断的正误,不断的优化自己的代码,也就是强化学习。这样,我们便成功完成了一个机器学习的实例。

人工神经网络

人工神经网络分为三个部分:结构(Architecture)、激励函数(Activation rule)、学习规则(Learning rule)。结构规定了网络中的变量和他们的拓扑关系;激励函数是神经网络模型具有的短时间尺度的动力学规则,用于定义神经元如何根据其他神经元的活动来改变自己的激励值;学习规则指定了网络中的权重随时间的变化规律,是一种长时间尺度的动力学规则 。下图为单一神经元的示意图

神经元将输入向量和权向量进行内积,经过一个非线性函数SUM处理,得到一个标量结果。他的作用是把一个N维空间分割成两个部分,通过对输入向量的处理,判断出该向量属于哪个部分。多个神经元进行组合,并且所有的神经元的输入向量都相同,这就构成了一个单层神经元网络。由于每个神经元都会产生一个标量结果,因此输出结果为一个向量。
人工神经网络的学习过程,是通过训练样本的校正,不断地修改各个层的权重,最终创建模型。

决策树

在机器学习中,决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。 决策树需要监督学习。
决策树的生成主要分为两步:节点的分裂和阈值的确定。一般以数据群体作为根节点,找到变异量最大的变量作为分割准则,直到模型准确度满足要求为止。阈值的确定决定了分类的条件,选择适当的阈值可以使分类错误率最低。

支持向量机


支持向量机(support vector machines)是一种二分类模型,是一种在分类与回归分析中分析数据的监督式学习模型与相关的学习算法。它的目的是寻找一个超平面来对样本进行分割,分割的原则是间隔最大化,最终转化为一个凸二次规划问题来求解 。最终训练完成后,大部分样本不需要保留,最终模型只与支持向量有关。
支持向量机基于统计学的VC维和结构风险最小原理。
VC维:描述函数集或机器学习能力的重要指标。给定一个函数集如果存在a个样本能够被函数集的函数分为全部的2a种形式,那么称函数集能够把a个样本打散。函数集的VC维是其能打散的最大样本数目a。
min⁡12∣∣w∣∣2+∑i=1lCiξis.t.yi(ωϕ(xi)+b)>=1−ξiξi>=0(i=1,2,...,l)\min \frac{1}{2}||w||^2+\sum_{i=1}^l{C_i}\xi _i \\ s. t. y_i(\omega \phi (x_i)+b)>=1-\xi _i \\ \xi _i>=0(i=1,2,...,l) min21​∣∣w∣∣2+i=1∑l​Ci​ξi​s.t.yi​(ωϕ(xi​)+b)>=1−ξi​ξi​>=0(i=1,2,...,l)

式中第二项为惩罚项,C为常数,称为误差惩罚参数,ξ_i是松弛变量。C越大,对错误分类的惩罚越大。
核函数:核函数方法实施步骤如下图。.

常见的核函数主要有4种

由核函数的性质,我们可以通过加法、乘法等运算利用上表中的核函数,构造出更加复杂的核函数,以满足特定的应用需要。但是表中的核函数是基于向量空间模型的,缺乏利用数据间的结构信息,且要求向量的长度是固定的。为了克服这一问题,通常需要对所应用领域寻找物理、化学和生物意义的相似性,进而构造结构化数据核函数。具体方法如下:
(1)定义每个成分的核函数,通过某种运算将这些核函数构成合法的核函数,成为组合核(如卷积核、邻域核等)。
(2)直接定义特征空间的点积,不考虑Mercer条件。由于特征空间的位数通常很大,因此需要给出计算核函数的高效算法,称为句法驱动核。主要思想是把对象分解为子结构,特征向量由子结构的计数组成。
(3)利用描述数据的某种模型将数据转换成向量空间形式,称为模型驱动核。
(4)直接将核函数进行指数运算,构成指数核。

多类支持向量机

当处理多类分类问题时,常用的构建多类向量机的方法有直接法和间接法。直接法是直接修改目标函数,将多个分类面的参数求解合并到一个最优化问题中,通过求解一个最优化问题实现多类分类。计算复杂度较高。间接法将多个二分类器组合起来,构成多分类器。常见的策略有一对一、一对多两种。另外还包括二叉树和有向无环图的多类支持向量机。

单类支持向量机

单类指的是训练集中只有一类样本,剩余的样本称为负类。单类支持向量机的基本思想是:通过非线性变换把数据映射到高维的特征空间,然后在特征空间中,把原点作为异常点,求出训练样本与原点最大间隔的超平面。对测试样本,通过超平面进行分类。常见的有基于边界的单类支持向量机和基于密度的单类支持向量机。基于边界的单类支持向量机通过寻找最小化的超平面或超球,将样本数据尽量的包含在超球中,通过超平面或超球判断测试数据是否属于正常类。基于密度的单类支持向量机通过估计样本数据的概率密度,再根据设定的阈值来判断样本是否属于正常类。

基于增量学习的支持向量机

分解算法和序列最小优化算法能够用于解决大样本的训练问题。但是当样本所占空间超过内存大小时,方法失效。因此引入基于增量学习的支持向量机。基于增量学习的支持向量机大体可分为四类:错误驱动法、固定划分法、过间隔法以及错误驱动法+过间隔法。
错误驱动法的基本思想是保存支持向量机分类器错分类的数据。当新增的数据装入内存时,用SVM进行分类,如果数据被错误分类,则保留这些数据。当错误分类的数据达到某个给定的阈值时,那么将这些错误分类的数据并入训练样本,用于获得新的支持向量机。
固定划分法的基本思想是将训练的样本(数据)分割为大小固定的部分。当新增的数据装入内存时,将其加入当前的支持向量,作为训练集用来训练新的SVM。
过间隔法的基本思想是假设在某个时间t的支持向量机分类器为SVM,如果新增的数据超过了SVM的最大时间间隔,进行判断。如果该数据满族条件,则保留数据,否则丢弃该数据。根据实际应用背景,选择一个阈值Ne,如果越过边界的数据点达到Ne值,则将这Ne个数据与SVM的支持向量一起作为训练样本。
错误驱动法+过间隔法的基本思想是假设在时间t的支持向量机为SVM,对新增加的数据进行KKT条件检测,满足则保留数据点,否则对其进行分类。如果误分类,则保留数据,否则删去数据。当间隔或误分类的数据到达阈值时,将这些数据加入训练集,进而训练获得新的支持向量机。

感悟

人工智能的发展从一定意义上说,进入了瓶颈期。图灵测试带来了人工智能的快速发展,但同时也限制了机器自动化的进一步研究。黑箱应用在人工智能领域固然是充满创造力的,但同时也有一定投机取巧之嫌。这就好比是考前速成与日常积累的区别。而现如今,人工智能的进一步发展同样也有两种途径:将黑箱这一理念继续发展,或者从人脑、哲学的角度,深度剖析“智能”的概念与实现。
第一种黑箱理念的关键是找到合适的装置。在一定意义上,最好的图灵机就是人脑。因此可以考虑从人本身主题出发,构建人与机器的互通关系。正如英特尔院士兼英特尔预期计算实验室主管Lama Nachman的团队所研究的一个项目:人脑-计算机接口(BCI)。霍金、彼得·斯科特·摩根博士都是这个项目的受益者。这样,机器的作用就变成了直接强化或丰富人类的能力,机器将直接成为人类的一部分。基于这样的设想,电影中的桥段(《阿丽塔》),亦或是游戏的设置背景(《赛博朋克》),可能就是人类的未来。当然其中所涉及的伦理、道德问题能否得到完美的解决,人们是否会认可这样的一种方式,仍然有待商榷。另一个方面,则是通过人工培植细胞与机器结合,从而完善图灵机的智能算法体制。目前的机器学习仍然以数据驱动为主,也就是说机器只能根据大量的数据去推测可能的结果,并没有中间判断过程。为了更好的模拟人脑的思维过程,可以从生物细胞的角度出发,找到人脑处理信息模式中的最小单元。将人类行为分成更加基本的单元,比如图灵提到的注意力转移,以此为背景,通过生物实验,培育出能够反映这一生物能力的单位细胞组。并通过高性能传感器,对细胞组产生的多元信号进行处理、学习,最终转化为符合人脑逻辑的高智能图灵机。
第二种则需要我们对目前人工智能的概念进行充实和完善。不妨思考一个问题,计算的运算能力、存储能力都比人脑强很多,但是“智能性”却远不及人脑强大。其实,这就是不同系统层次的配合问题。人体内众多能力“不强”的系统,最终构成的人类是充满智慧的。但是我们在机器领域其实一直在不断的增强他某一方面的能力,缺少不同底层算法的配合。因此我们第一个需要解决的就是如何将不同功能的高性能算法进行整合。这也与具身认知的理论是不谋而合的。其次,人工智能属于仿生学的一种,因此也很难跳过意识流(steam of consciousness)这一概念。意识流由美国机能主义心理学家先驱詹姆斯提出,强调了意识的不间断性 。意识流中的信息便是我们构建人工智能的所有参照。体现到人本身就是一种自我思考、自我反省的过程。对于理想的图灵机,我们需要建立的图灵测试,更应该是一种自省式的问答 。

图灵测试与机器学习——学习笔记相关推荐

  1. 吴恩达机器学习学习笔记第七章:逻辑回归

    分类Classification分为正类和负类 (规定谁是正谁是负无所谓) 吴恩达老师举例几个例子:判断邮箱是否是垃圾邮箱 一个在线交易是否是诈骗 一个肿瘤是良性的还是恶性 如果我们用之前学习的lin ...

  2. R语言与机器学习学习笔记(分类算法)

    转载自:http://www.itongji.cn/article/0P534092014.html 人工神经网络(ANN),简称神经网络,是一种模仿生物神经网络的结构和功能的数学模型或计算模型.神经 ...

  3. 【机器学习笔记】可解释机器学习-学习笔记 Interpretable Machine Learning (Deep Learning)

    [机器学习笔记]可解释机器学习-学习笔记 Interpretable Machine Learning (Deep Learning) 目录 [机器学习笔记]可解释机器学习-学习笔记 Interpre ...

  4. 机器学习学习笔记(一)绪论

    机器学习学习笔记(一)绪论 声明在开头:本篇文章主要是针对周志华教授的<机器学习>的学习心得. A. 机器学习初见 ArthurArthurArthur SamuelSamuelSamue ...

  5. 天池龙珠训练营-机器学习学习笔记-03 LightGBM 分类

    天池龙珠训练营-机器学习学习笔记-03 LightGBM 分类 本学习笔记为阿里云天池龙珠计划机器学习训练营的学习内容,学习链接为:训练营 一 原理简介: 它是一款基于GBDT(梯度提升决策树)算法的 ...

  6. 机器学习学习笔记(13)----岭回归(Ridge回归)

    在<机器学习学习笔记(4)----线性回归的数学解析>,我们通过计算线性模型的损失函数的梯度,得到使得损失函数为最小值的的解析解,被称之为普通最小二乘法:    (1) 公式(1)能够求得 ...

  7. 在.NET Core下的机器学习--学习笔记

    摘要 .NET Core 在机器学习的应用场景,除了 ML .NET 还会介绍一个非常棒的開源技術 TensorFlow .NET , Keras .NET. 讲师介绍 本课内容 人工智能介绍 ML ...

  8. 【机器学习-学习笔记】吴恩达老师机器学习课的笔记(黄海广博士)

    吴恩达老师机器学习课的笔记github地址:https://github.com/fengdu78/Coursera-ML-AndrewNg-Notes,黄海广博士原创,黄海广博士也是这门课的最初翻译 ...

  9. “张量网络压缩感知(TNCS)与无监督机器学习”学习笔记

    TNCS学习笔记 一.前情小故事 二.张量网络压缩感知(TNCS) 如何构造和优化∣ψ⟩\left| \psi \right\rangle∣ψ⟩ 如何通过在∣ψ⟩\left| \psi \right\ ...

最新文章

  1. zip 密码算法 java,java zip 密码
  2. Hadoop HDFS (3) JAVA訪问HDFS之二 文件分布式读写策略
  3. foreman源NO_PUBKEY 6F8600B9563278F6
  4. R语言观察日志(part6)--初识rMarkdown
  5. linux100day(day7)--用户管理和权限管理简单介绍
  6. H3C交换机常用配置命令大全
  7. 四方位陈述RV系列蜗轮蜗杆减速机产品
  8. 最新USDT支付系统+支持ERC20/OMNI/代理商/第三方API
  9. “土地信息+”能否激发千亿大数据应用市场
  10. 人教版计算机三年级教学目标,人教版小学三年级数学下册教学计划
  11. 决策树(手写代码+隐形眼镜项目)
  12. 《多媒体在初中数学中的运用研究》课题研究活动记录
  13. Windows打开软件老是弹出无法验证发布者
  14. Swift新async/await并发模型中子任务取消不能被其它子任务感知的原因及解决
  15. 如何查询土地规划用途_哪里能够查到用地规划图
  16. Centos 7搭建nginx+Haproxy+nfs
  17. 云盘 同步盘介绍 同步工具介绍
  18. mysee的零散,方便以后汇总
  19. 基于arm开发板在ubuntu18.04系统上编译vlc播放器
  20. python 计算图像结构张量(Structure_tensor)

热门文章

  1. python自动化开发简历_手把手教你用Python+Selenium实现简历自动刷新!
  2. 在阿里云云服务器上发布自己的网站(建站|详细)...
  3. DWORD类型的时间转换
  4. 如何批量将XPS转成Word
  5. 腾讯在线教育的小程序云开发实践
  6. radial-gradient
  7. Java购买火车票(初识并发)
  8. docsify 建立目录树脚本
  9. SimpleColorPick网页桌面取色器
  10. LaTex--4--各种文件类型