文章目录

  • 书籍信息
  • 人工智能呼啸而来
    • 人工智能无处不在
    • 人工智能艺术家
    • 索菲亚:类人生物还是虚张声势
    • 飞速迭代的人工智能
    • 让机器学会学习
    • 技术混搭
    • 我们应该如何定义人工智能
    • 人工智能的未来
    • 算法的广阔天空
  • 人工智能和我的学术生涯
    • 永恒的追求:让机器拥有智能
    • 传统智能难以复制
    • 人类与人工智能的“战争”
    • 神经流派的崛起
    • 遭遇寒冬
    • 狂热的疯子
    • 被兴趣激发的人
    • 卓有成效的阅读
    • 我的偶像
    • “你认识一个叫杨立昆的人吗?”
    • 梯度反向传播的应用
    • 神圣之地
    • 贝尔实验室的岁月
    • 职业与信念
    • 深度学习的阴谋
    • 卷积网络的春天
  • 机器的初级训练
    • 从海兔得到的启发
    • 监督学习
    • 随机近似
    • 数学家的题外话
    • 伽利略和比萨斜塔
    • 图像识别
    • 感知器的创新
    • 像素的网格
    • 区分字母C和D
    • 泛化原理
    • 感知器的局限性
    • 特征提取器
  • 机器学习的方法
    • 成本函数
    • 找到谷底
    • 实践中的梯度下降
    • 随机梯度
    • 多个谷底的困扰
    • 机器学习的原理
    • 模型的选择
    • 奶牛和三名科学家
    • 奥卡姆剃刀原理
    • 机器训练方案
    • 最佳折中方案
    • 人类的教训
  • 完成更复杂的任务
    • 贡献度分配
    • 连续神经元
    • 我的分层学习机
    • 赛跑
    • 数学的美妙之处
    • 多层结构的益处
    • 打破异议
    • 多层网络的魅力
  • 人工智能的支柱
    • 2012年的重磅炸弹
    • 视觉系统的信息处理
    • 有远见的东京科学家
    • 科学界方法之争
    • 卷积网络全貌
  • 深度学习的应用
    • 图像辨识
    • 内容嵌入和相似度测量
    • 语音识别
    • 语音克隆
    • 语言的理解和翻译
    • 智能预测
    • 人工智能与科学
    • 自动驾驶汽车
    • 大型应用程序的架构:虚拟助手
    • 医学影像与医学
    • 从传统搜索算法到强化学习
  • 我在脸书的岁月
    • 与脸书结缘
    • 脸书的人工智能研究实验室
    • 科学的突破与产品的开发
    • 用技术实现信息过滤
    • 技术、平台与媒体
    • 对带标签数据的渴求
    • 图灵奖与我的新身份
  • 前景与挑战
    • 探究智能和学习的基础
    • 机器学习的局限性
    • 强化学习的局限性
    • 有待开发的学习新范式
    • 有限的预测能力
    • 人是如何学习的
    • 如何训练预测系统
    • 多重预测和潜在变量
    • 赋予机器预测能力
    • 系统智能接近人类智能任重而道远
    • 集成电路创新的爆炸式增长
    • 人工智能的未来
  • 隐忧与未来
    • 人工智能将改变社会和经济
    • 人工智能创新的生态系统
    • 谁将从革命中受益
    • 军事失控的风险
    • 危险警报:人工智能的滥用
    • 如何解释人工智能
    • 理解人工智能
    • 大脑只是一部机器吗
    • 所有模型都是错的
    • 担忧的声音
    • 人工智能并不万能
    • 大脑的学习机制
    • 机器能否产生意识
    • 语言在思维中的作用
    • 机器会有情感吗
    • 机器人想要获得权力吗
    • 价值观的统一
    • 新的疆界
    • 智力科学
  • 术语表

书籍信息

书名:《科学之路:人、机器与未来》
作者:杨立昆(法国人,Yann LeCun,Facebook首席人工智能科学家、纽约大学教授、2018年图灵奖得主)
资料:https://download.csdn.net/download/zhiyuan411/87111352,密码:book

人工智能呼啸而来

人工智能无处不在

人工智能艺术家

人工智能是一名精于模仿的艺术家。

索菲亚:类人生物还是虚张声势

索菲亚是类人型机器人,她的谈话内容只是从工程师预先设定好的标准答案中,经过匹配系统处理后的最合适的答案。

飞速迭代的人工智能

让机器学会学习

第一阶段:学习或训练。
第二阶段:实施阶段。

技术混搭

如今的应用程序通常是机器学习、GOFAI与传统计算机成果混搭的结晶。

我们应该如何定义人工智能

人工智能即机器要有感知、推理和行动的能力。

人工智能的未来

深度学习就是人工智能的未来。然而,目前的深度学习系统仍无法进行逻辑推理,这是未来几年的主要挑战。

算法的广阔天空

人工智能和我的学术生涯

永恒的追求:让机器拥有智能

传统智能难以复制

人类与人工智能的“战争”

神经流派的崛起

遭遇寒冬

2位麻省理工权威教授1969年合著的《感知器:计算几何学概论》指出了学习机的局限性,该作品引起了轰动,资助机构纷纷退出,神经网络遭遇寒冬。

狂热的疯子

20世纪七八十年代的“寒冬”里,那些仍然执着于神经网络研究的人被视为狂热的疯子。

被兴趣激发的人

指本书作者。

卓有成效的阅读

指本书作者。

我的偶像

指导师、辛顿和谢诺夫斯基等人。

“你认识一个叫杨立昆的人吗?”

指遇到贝尔实验室2位负责人的事情。

梯度反向传播的应用

神圣之地

指贝尔实验室。

贝尔实验室的岁月

  1. 识别手写字符的卷积网络,商用于支票金额识别。
  2. DjVu图像压缩算法:主要目标是书籍的扫描图像化(对普通场景图片的压缩也没有优势)。未成功商业化,其主要技术是将图像分为背景层(纸的纹理和图片)和前景层(文本和线条)分别压缩,前景层高分辨率进行文字等还原,背景层则低分辨率压缩图片。其缺点是对于强对比色彩区域之间的色彩反差的表现则大打折扣,使得文字的还原令人难以满意。

职业与信念

坚持神经网络和卷积网络。

深度学习的阴谋

卷积网络的春天

在图像识别领域大放异彩。

机器的初级训练

从海兔得到的启发

改变突触的值就可以改变类似海兔这种软体动物的行为,解释了海兔在这个过程中的适应能力。

这在机器学习中即是“模型参数识别”的一个例证。

监督学习

  1. 选择一个学习集合:{x, y},对应:(x1, y1), (x2, y2) …。
  2. 提出一个模型,即参数为w(可能有多个,即w是w1, w2, …的集合)的第一个函数f(x, w)。
  3. 提出第二个函数,即成本函数C(x, y, w),用于测量学习示例中存在的误差。
  4. 从函数f(x, w)找到一个参数,使得成本函数L(w)达到最小值,通常使用的方法是随机梯度法。即如下公式:w=w−e×C′(x,y,w)w=w-e{\times}C'(x, y, w)w=w−e×C′(x,y,w),其中e是梯度步长,C′(x,y,w)C'(x, y, w)C′(x,y,w)是成本函数的导数,也被称为梯度。

随机近似

寻找根据x预测y的函数f(x),然后使得误差最小。

使用的是随机梯度下降法。

数学家的题外话

随机梯度下降法的数学证明。

伽利略和比萨斜塔

模型对应的f(x, w)不一定是一条直线,伽利略就是发现了抛物线。

图像识别

感知器的创新

感知器的创新就是一个学习过程:每识别一次输入的图像并输出相应结果后,它都会自动调整权重。

感知器开启了所谓的监督机器学习。

像素的网格

图像即像素的网格,同一像素始终连接同一输入和同一权重。

区分字母C和D

机器学习的过程就是其调整权重的过程。

比如,区分字母C和D:我们重复多次向机器输入2个字母的图像,如果机器给出正确答案,则什么也不用做;如果错误,则调整参数(即像素对应的网格)的权重,使得C的加权和为正、D的为负。

如果足够幸运,其最后的参数权重会收敛到能够稳定识别任何一个C或D的状态。此时,实际上情况是,C特有的像素标记为正的权重,D特有的像素标记为负的权重,其他不在C或D中出现或者都出现的则标记为0权重。

感知器学习的过程可以看作成本函数最小化的过程。

泛化原理

学习机器的特性是泛化,即能够给出学习中未曾看到的示例的正确答案。

感知器的局限性

感知器通过一个超平面将空间分成两半,它的“一侧”是所有使识别为字母C处于活跃的点,另一侧是所有使识别为字母C处于不活跃的点。

如果不存在这样的超平面,也就是说这些点不是线性可分离的,那么感知器无限次修改权重,也无法收敛到稳定且唯一的权重配置。比如,有些字母C差异很大,比如特别小,蜷缩在角落。

特征提取器

最简单的感知器无法区分某些形状。解决办法是:在输入图像和神经层之间放置一个中间模块,也就是所谓的特征提取器。

为了构造出适合各种应用的特征提取器,研究人员曾经采用过多种方法。另一种更为精明的构建特征提取器的方法是SVM,即所谓核机器的一个范例,但本质上就是一种两层神经网络。

数学定理表明,仅需要两层神经元就可以进行任何计算,这也是SVM能够成功的原因之一。
但是这种情况需要庞大的中间层,即第一层神经元数量远远大于原始图像中的像素数量。

机器学习的方法

成本函数

训练机器的过程就是调整参数的过程。

学习就是逐步减少系统误差的过程。

成本函数的作用是测量系统的输出结果和期待的输出结果之间的差距。

找到谷底

梯度下降的实现步骤:

  1. 计算当前参数(在当前点)向量值的学习成本。
  2. 测量每个轴上的斜率,并将斜率收集在梯度向量g中。
  3. 沿着与梯度相反的方向修改参数向量。方法为梯度分量具有相反的符号,然后乘以控制步长的常数e。e的大小很重要,如果太小,会拖延我们找到最小值的时间;如果太大,则有可能越过最小值并到达另一侧。
  4. 将上一步得到的向量添加到参数向量中。
  5. 重复以上步骤,直至到达谷底,也就是找到学习成本的最小值。

以上步骤可以概况如下:

  1. 计算成本。
  2. 计算梯度。
  3. 通过减去梯度乘以常数e(梯度步长)来更新参数。

实践中的梯度下降

在现实中,并非只有2个维度,而是有数百万甚至数十亿个维度,故前小节用干扰来计算梯度的方法就变得极其低效。

另一种大为有效的计算梯度的方法是分析法,即计算每个轴方向上的成本函数的导数。

随机梯度

从训练集中随机选择一个示例,计算器成本函数的梯度,并根据该梯度进一步调整参数,再随机选择另一个示例,计算成本函数的梯度和调整参数。不断重复以上操作,直到这个梯度无法下降为止。随着不断靠近山谷底部,步长也会随之逐步减小。

实践中,不是每次仅对一个示例进行如上操作,而是每次对一小部分示例进行如上操作。这个方法比在整个训练集中计算梯度更快。

多个谷底的困扰

多个谷底时,如果位于成本高的谷底附近,无论如何优化,也会指向该谷底。从而陷入困境。

故,一个良好的成本函数应该是凸的,因为凸成本函数只有一个极小值。

这也是多层神经网络被(暂时)放弃的原因之一:它们的成本函数是非凸的。但实际上,也是具有多种解决方法的,会在后面论述。

机器学习的原理

学习期间,网络会调整参数,使得学习集中的所有x都能给出期待的结果y。
学习之后,可以通过内插或外推的方式,为学习集中不存在的新x赋值y。

模型的选择

如果有P个点(或学习示例),那么一定会存在至少一条曲线,换句话说,存在(P-1)次多项式通过这P个点。

而当P=1000时,如果我们采用999次多项式,实际上,它非常不稳定,所以,我们必须调整其对应模型的复杂度。

奶牛和三名科学家

  1. 使用先验知识做出预测是必要的。
  2. 一定存在几个可以解释数据的基础模型。
  3. 好模型和坏模型之间的差距并不在于解释所观察事物的能力,而在于预测的能力。

奥卡姆剃刀原理

奥卡姆剃刀原理:若无必要,勿增实体。

对一系列观察的解释应尽可能简单,而不应该使用不必要的概念。即公式应使用尽可能少的假设和自由参数。

机器训练方案

比如有1万个示例:

  1. 训练过程,比如使用5000个示例,对函数调整其参数使得成本函数最小化。
  2. 验证过程,比如使用另外2500个示例,测量误差;并换用不同的模型,进行重复操作,保留产生误差最小的模型。
  3. 测试过程,比如使用剩下2500个示例,测试误差和性能。

最佳折中方案

过于简单的模型是无法对大量学习数据进行建模的。

而另一方面,如果模型足够复杂,它便可以近乎完全匹配整个学习集,它只是在记录学习数据,而不是学习发现数据蕴含的基本规律。
其泛化能力必然不够良好,换句话说,它在各点之间的振荡幅度很大。它不太适合插值,因为插值可能正好位于振荡的谷峰或谷底,即所谓的过拟合。

对任何一个系统而言,学习误差(专家称为经验误差)都小于验证误差。
但如何在相同的模型复杂度下,增加学习示例的数量,则学习误差缓慢增加,验证误差缓慢减少。如果示例无穷尽地增加,两条曲线也会靠近彼此。

对于给定数量的学习示例,模型的能力越强大,则学习误差就会越小,同时,验证误差和学习误差之间的差异也会越大。

实际上,验证误差随着模型能力的强大,会先变小(即欠拟合状态),后变大(即过拟合状态)。

验证误差最小的点,此时的模型复杂度即最佳折中方案。

在多个合适的模型中进行选择,是依靠正则化器。实践中,会选择易于计算并且易于通过梯度下降最小化的正则化,比如权重的平方和或权重的绝对值之和。

人类的教训

  1. 像布尔函数一样,人类智能的复杂性源于非常简单元素的组合。这是一个新的特性。
  2. 预设是必要的。我们必须有预先设置的专业的大脑结构才能学习、处理信息(少量试错就可以掌握规律,而不是死记硬背)。
  3. 我们这里所描述的所有机器学习的方法都能使成本函数最小化。但人类和动物的学习方法也可以被解释为成本函数的最小化吗?尚不得而知。

完成更复杂的任务

贡献度分配

反向传播已成为深度学习的基础,几乎所有的人工智能系统都在使用这种方法。

多层神经网络是多种类型的层的堆栈。每一层的输入可以被看作一个向量,它代表前一层输出的集合。而该层的输出也是一个向量,但是其大小不一定与输入向量相同。

我们将这种每层都从前一层或前几层获取输入的网络称为前馈多层网络。如果从高层(在出口附近)向底层(在入口附近)的方向也存在连接性,则称为循环网络。

如果该层的每个输出都是输入的加权和,那么这层被称为线性层。线性层的输入与输出数量不一定相同。

如果该层将非线性函数应用于相应的输入来获得相应的输出,那么这层被称为非线性层。非线性层的输入与输出数量是相同的。

线性层和非线性层一般是交替的,因为多个线性层是可以等效于一个线性层的。

只有最后一层的输出是可见的,即系统的整体输出。中间层的输出是隐藏的,设置中间层的期待输出,就是深度学习最主要的目标:解决“贡献度分配”问题。

连续神经元

二进制神经元的输出是阶梯状,与基于梯度下降的学习方法是不兼容的。
而连续神经元的输出则是呈现出连续的S曲线形状,因为这种特性我们可以使用梯度下降方法来训练多层网络。

我的分层学习机

HLM算法,现在已经不再使用。

赛跑

辛顿更早地发表了一份关于梯度反向传播的技术报告。

数学的美妙之处

梯度反向传播是一种有效计算成本函数梯度(由多层神经组成的网络中的最大斜率)的方法。其解释涉及线性函数和非线性函数的数学知识。

多层结构的益处

多层网络端到端的训练构成了深度学习。

这一类系统不仅学习分类,而且连续的各层也会设法将获得的输入转换为有意义的表达,类似于特征提取器在增强型感知器中的行为。

实际上,我们可以说,连续的各层就是某种经过训练的特征提取器。这是多层网络的决定性优势:他们会自动学习如何适当地表示信号。

打破异议

异议:构建具有连续神经元的多层神经网络,并尝试通过梯度下降对其进行训练,可能陷入局部最小值。
实际并非如此。多层网络可以具有多个最小值。

多层网络的魅力

连续的各层就是某种经过训练、通过学习、自动生成的特征提取器。

深度即多层之意。深度学习包括:

  1. 通过配置和连接模块来构建多层网络的体系结构;
  2. 利用反向传播计算梯度之后再通过梯度下降法训练该结构。

人工智能的支柱

2012年的重磅炸弹

在 ImageNet大规模视觉识别挑战赛 中,有支队伍因为使用大型卷积网络而将历年比赛的识别错误率的最好记录从25%刷新到16%。

视觉系统的信息处理

定向选择性(神经元对定向的敏感性)和复杂细胞的存在是休伯尔和威泽尔获得诺贝尔生理学或医学奖的最主要的两个发现。

有远见的东京科学家

日本研究员福岛邦彦发明的机器使用了休伯尔和威泽尔的模型架构,即信号在连续的简单和复杂神经元层之间无环推进。但是,只训练最后一层,也没有反向传播。

科学界方法之争

本书作者在使用卷积网络完成支票金额读取系统时,业内不再使用神经网络,而是其他方法。

卷积网络全貌

卷积网络是一种特殊类型的神经网络,它使用了特定的连接架构,即模仿了由休伯尔和威泽尔发现的视觉皮层的简单细胞和复杂细胞的层次结构,以及结合了端到端的梯度反向传播训练。

一个卷积网络是由卷积层、ReLU层和池化层堆栈组成,典型的架构为:卷积->ReLU->池化->卷积->ReLU->池化->卷积->ReLU->卷积。如今,一个卷积网络可以包含100个这样的层。

深度学习的应用

图像辨识

内容嵌入和相似度测量

语音识别

语音克隆

语言的理解和翻译

智能预测

人工智能与科学

自动驾驶汽车

大型应用程序的架构:虚拟助手

医学影像与医学

从传统搜索算法到强化学习

我在脸书的岁月

与脸书结缘

本书作者兼职加入脸书。

脸书的人工智能研究实验室

即 FAIR。

科学的突破与产品的开发

FAIR的主体仍然是一个独立的基础研究实验室。成立机器学习应用研究小组负责利用FAIR开发的新方法去研发产品和服务。

用技术实现信息过滤

为脸书上的信息过滤服务。

技术、平台与媒体

脸书2018年的事件:数百万用户数据在用户不知情情况下被剑桥分析公司获取并使用。

对带标签数据的渴求

机器学习需要大量带标签的数据,这个条件是强制性的。在FAIR,研究了如何使用大量无须事先手动标记的数据进行训练。

图灵奖与我的新身份

2019年获得图灵奖,卸任FAIR负责人,成为人工智能首席科学家。

前景与挑战

探究智能和学习的基础

  1. 不被世人所知的实验是没有未来的;
  2. 我们尝试复制生物学机制的前提是理解自然机制的本质。

机器学习的局限性

  1. 训练使用的示例必须事先进行人工识别和标记。
  2. 监督学习只在给定的区域有效,所以存在盲区。

强化学习的局限性

强化学习可以在对机器进行训练时,无须给出预期答案,而只需告诉它产生的结果是否正确。

不幸的是,这种学习范式在最常见的形式下,即便是执行简单的任务,也需要大量的交互(尝试和错误)才能进行学习。

有待开发的学习新范式

监督学习或者强化学习,在实际中的效果远远落后于人类的学习效果。媲美人类学习的新范式还有待开发。

有限的预测能力

机器的预测能力十分有效,因为它没有一点常识,不能进行推理。

人是如何学习的

人和动物是通过多种不同的组合方法来学习的,通过自我学习获得了大部分知识,观察至关重要,在此基础上还有一小部分监督学习(或模仿学习)、一小部分强化学习。

如何训练预测系统

自监督学习的基本思想是:获取一个输入后,隐藏该输入的一部分,以此来训练机器从可见部分预测被隐藏部分。

现在面临的一个问题是:当信息无法完全预测、连续且高维时(如视频各帧图像),该如何进行自监督学习。

多重预测和潜在变量

自监督模型是一个参数化函数yp=g(x, w),其中x是观察到的输入部分,yp是预测值。现在,添加一个参数z,我们称之为潜在变量:yp=g(x, z, w),通过改变集合中的z值,也可以获得yp的变化的集合,该集合即为预测集合。

训练潜在变量模型,最流行的是GAN算法。

赋予机器预测能力

机器人即使它的环境有限且只有一个很简单的任务,那它也必须有一个复杂世界的模型。

预测很困难,因为世界不是完全可预测的。

系统智能接近人类智能任重而道远

强化学习试图将感知和行动整合到一个单一学习范式中,但训练这些系统所需的实验和错误的次数使得它们很难应用于实践,比如自动驾驶。

人类的行为有两种机制驱动:

  1. 刺激-响应类型的反应机制;
  2. 仔细思考类的,涉及我们的世界模型和计划能力。

具有类似人类的世界模型的内部模型的智能体的体系结构:

  1. 感知模块:可对世界的状态进行估算。
  2. 世界模型:即一个函数g,在时间 t 时根据状态s[t]、动作a[t]和可能随机抽取的潜在变量z[t]来预测下一个世界的状态。
  3. 评判体系:即成本函数C(s[t]),其值显示世界状态会被导向有利或是不利的结局。

推理能力的智能化,可以创建一个“翻译网络”,它将问题“翻译”为解答问题的多个网络的构建指令,即可以基于输入数据动态创建多个神经网络来解答问题。其中动态创建的神经网络的作用是:对分解后的子问题,可以将推理归纳为找最小化特定函数的向量序列。

集成电路创新的爆炸式增长

越来越多的应用需要专门用于卷积网络计算的处理器,它们的架构域标准处理器的架构有很大不同。

我们需要开发具有处理TFLOPS量级计算能力的新工具,即神经元处理器。它的价格和功耗都不能太高。为了理想的性能,它需要全新的硬件架构,比如:单元和存储器混合分布在硅芯片上,计算精度非常低,几位数就可以代表神经元的权重和激活状态。

人工智能的未来

人工智能的四大主要应用类别吸引了大型工业集团的兴趣,它们是医药、自动驾驶汽车、虚拟助手以及家用和工业机器人。

隐忧与未来

人工智能将改变社会和经济

一些杰出的经济学家将人工智能视为GPT,即一种“通用技术”,我们历史上创造的GPT还有蒸汽机、电力、计算机等。认为它将对生产力产生重大影响,在未来几十年中不断传播并深刻改变经济生活。

人工智能创新的生态系统

  1. 集中在大学附近,比如硅谷。
  2. 工业实验室。
  3. 初创企业的汇集地。

谁将从革命中受益

人工智能无法参与竞争的是人类经验。
深耕于有资质的、创新型的、专注于人际关系或人力资源职位的人更有可能保住工作。
服务业、手工业和房地产业不会受到很大影响。

我们越来越重视创造力和独到的体验,越来越不看重大众化的产品。在健康、艺术、教育、体育等领域的职业中,感性的方面在未来将占有重要的一席之地。

军事失控的风险

主要是反对杀手机器人。

危险警报:人工智能的滥用

  1. 人工智能和可能危及人类生命安全的关键系统;
  2. 公平、透明和负责任的人工智能;
  3. 人工智能对经济和工作的影响;
  4. 人机协作;
  5. 人工智能的社交和社会影响;
  6. 人工智能和社会福利。

如何解释人工智能

使用没有深入了解其运行机制的系统是一种常见的现象,比如许多常用药物。
投入实际应用的决策辅助系统等也不是必须100%可靠。

但是,当人工智能在司法、法律、医疗、财务或行政框架下用于对个人有重大影响的决策时,给出合理的解释是必须的。

理解人工智能

人工智能与神经科学的发展是相辅相成的。

大脑只是一部机器吗

大多数科学家都接受了大脑是生化机器的概念。

神经元对输入的电信号做出反应,根据从上游神经元接收到的信息计算是否产生电脉冲信号、动作电位或放电脉冲,并将其发送给所有下游神经元。通过数十亿个相对简单的神经元的活动,我们便获得了大脑和思想。

所有模型都是错的

目前的机器学习,总的来说仅限于根据统计规律来建立现象学模型。

担忧的声音

关于“人类败给自己的作品”有无数幻想,所有这些假设都是极不可能,我们远远低估了人工智能超越人类所需要的时间。

另一方面,每一项技术都带来了问题,而这些问题最终也都得到了解决。

人工智能并不万能

人工智能虽然能力出众,但其常识却不如一只猫。它所受的训练只能使它执行一项任务。

它是无法培养意图或发展意识的。

大脑的学习机制

数学家弗拉基米尔·瓦普尼克规范了机器学习的统计理论,该理论认为要使一个实体具备学习能力,就必须让其专攻一个有限的任务领域。

人类不是通才,先天性,即大脑的预先连接,是必要条件。它可以限定大脑的能力并加速大脑的学习。比如,大脑的听觉皮层、视觉皮层都是完成特定的功能。

机器能否产生意识

作者个人认为意识是一种幻觉。人类意识与注意力息息相关,人类没有事先培训就无法一次性地将注意力集中在多项任务上,故意识是为每个给定任务配置电路的控制机制,用来“编程”适合应对当前情况的世界模型。

语言在思维中的作用

灵长类动物的智力与语言无关。动物的智力和人类的大部分智力都是基于模拟、类比以及使用世界模型来对实际情况进行想象得来的。

机器会有情感吗

情感是人性的重要组成部分,因此我们无法轻易将其数字化为简单的数学函数计算。

但当机器因成本高昂而避免采取行动时,或者由于成本低廉而执行任务时,很像是一种情感的(过于)简化的类比。

机器人想要获得权力吗

以红毛猩猩为例,可知没有社会结构,就没有统治体系;而没有统治欲望也可以很聪明。

所以,除非我们在智能机器中明确地设立了这种统治欲望,否则,机器不会渴望统治人类。

价值观的统一

小说家艾萨克·阿西莫夫在小说里提出的机器人三大法则,在现实中很难实现,因为机器很难达到理想效果的预测和评估危险情况的能力。

我们可以在智能体的体系结构的目标函数中手工设置一些安全性的规则,比如当有人处于附近时限制机器人手臂的移动速度。目标函数还应该包括可训练的组件,让机器人在遇到未被工程师手动构建的先天项所覆盖的情况时,系统的行为可以得到纠正。

新的疆界

智力不只局限于智慧的能力,还涉及行为的所有领域,同时也是学习、适应和决策的能力。

在节约资源方面,机器对数据和能力的消耗是大脑的数千倍,这是因为生物神经元数量多但耗能很少。

智力科学

在科学史上,技术产品的出现通常先于解释其工作的理论和科学。

人工智能研究仍然处于创新阶段,它还算不上是一门科学,我们尚未总结出一般性智力理论。

术语表

  1. FLOP:浮点运算
  2. MFLOPS:每秒百万浮点运算
  3. GFLOPS:每秒千兆浮点运算
  4. TFLOPS:每秒万亿浮点运算
  5. GOFAI:好的老式人工智能
  6. ImageNet:一个计算机视觉研究数据库。

《科学之路》读书笔记相关推荐

  1. 读书笔记 | 墨菲定律

    1. 有些事,你现在不做,永远也不会去做. 2. 能轻易实现的梦想都不叫梦想. 3.所有的事都会比你预计的时间长.(做事要有耐心,要经得起前期的枯燥.) 4. 当我们的才华还撑不起梦想时,更要耐下心来 ...

  2. 读书笔记 | 墨菲定律(一)

    1. 有些事,你现在不做,永远也不会去做. 2. 能轻易实现的梦想都不叫梦想. 3.所有的事都会比你预计的时间长.(做事要有耐心,要经得起前期的枯燥.) 4. 当我们的才华还撑不起梦想时,更要耐下心来 ...

  3. 洛克菲勒的38封信pdf下载_《洛克菲勒写给孩子的38封信》读书笔记

    <洛克菲勒写给孩子的38封信>读书笔记 洛克菲勒写给孩子的38封信 第1封信:起点不决定终点 人人生而平等,但这种平等是权利与法律意义上的平等,与经济和文化优势无关 第2封信:运气靠策划 ...

  4. 股神大家了解多少?深度剖析股神巴菲特

    股神巴菲特是金融界里的传奇,大家是否都对股神巴菲特感兴趣呢?大家对股神了解多少?小编最近在QR社区发现了<阿尔法狗与巴菲特>,里面记载了许多股神巴菲特的人生经历,今天小编简单说一说关于股神 ...

  5. 2014巴菲特股东大会及巴菲特创业分享

     沃伦·巴菲特,这位传奇人物.在美国,巴菲特被称为"先知".在中国,他更多的被喻为"股神",巴菲特在11岁时第一次购买股票以来,白手起家缔造了一个千亿规模的 ...

  6. 《成为沃伦·巴菲特》笔记与感想

    本文首发于微信公众帐号: 一界码农(The_hard_the_luckier) 无需授权即可转载: 甚至无需保留以上版权声明-- 沃伦·巴菲特传记的纪录片 http://www.bilibili.co ...

  7. 读书笔记002:托尼.巴赞之快速阅读

    读书笔记002:托尼.巴赞之快速阅读 托尼.巴赞是放射性思维与思维导图的提倡者.读完他的<快速阅读>之后,我们就可以可以快速提高阅读速度,保持并改善理解嗯嗯管理,通过增进了解眼睛和大脑功能 ...

  8. 读书笔记001:托尼.巴赞之开动大脑

    读书笔记001:托尼.巴赞之开动大脑 托尼.巴赞是放射性思维与思维导图的提倡者.读完他的<开动大脑>之后,我们就可以对我们的大脑有更多的了解:大脑可以进行比我们预期多得多的工作:我们可以最 ...

  9. 读书笔记003:托尼.巴赞之思维导图

    读书笔记003:托尼.巴赞之思维导图 托尼.巴赞的<思维导图>一书,详细的介绍了思维发展的新概念--放射性思维:如何利用思维导图实施你的放射性思维,实现你的创造性思维,从而给出一种深刻的智 ...

  10. 产品读书《滚雪球:巴菲特和他的财富人生》

    作者简介 艾丽斯.施罗德,曾经担任世界知名投行摩根士丹利的董事总经理,因为撰写研究报告与巴菲特相识.业务上的往来使得施罗德有更多的机会与巴菲特亲密接触,她不仅是巴菲特别的忘年交,她也是第一个向巴菲特建 ...

最新文章

  1. EasyNVR摄像机网页直播中,推流组件EasyRTMP推送RTMP扩展支持HEVC(H.265)的方案
  2. Log4net 用法 本地日志
  3. python---django中orm的使用(5)数据库的基本操作(性能相关:select_related,和prefetch_related重点)(以及事务操作)...
  4. 电脑cmd命令大全_查询电脑IP地址
  5. CLR Via CSharp读书笔记(29) - 混合线程同步构造
  6. OpenCV中LUT函数的使用
  7. 兰州2021高考一诊成绩查询,2021兰州中考"一诊"成绩分析结果查询
  8. Creator-配置MSVC调试器
  9. 监控mysql主从复制监控_shell脚本监控mysql主从同步状态
  10. 【转】C++标准转换运算符static_cast
  11. 前端学习(3328):闭包的形式3
  12. 前端学习(1331):mongoose第三方模块
  13. java sub,Java 9子软件包跨模块拆分
  14. leetcode-Single Number II-137
  15. php5.3之后如何加载zend
  16. HoloLens1开发(三):Trilib插件动态加载模型-Part1
  17. AcWing 841. 字符串哈希(字符串Hash)
  18. linux中的 bin sh,Linux-#!/bin/sh理解
  19. 基于Python的车牌识别系统的实现
  20. 三级分销如何合规分账?

热门文章

  1. irq: nobody cared (try booting with the “irqpoll” option)
  2. msvc2017配置qt5.12.8 x86和x64库版本切换
  3. 如何把很多照片拼成一张照片_怎样用手机将多张照片拼成一张组合图?
  4. 【UE4 Material】使用材质节点TexCoord偏移、缩放UV
  5. r语言mfrow全程_R语言(绘图入门)
  6. opencv滤镜-二值化实现黑白滤镜
  7. c语言既是素数又是回文数的三位数,编写程序,找出所有既是素数又是回文数的三位正整数.例如:131等...
  8. PAT乙级——1010.月饼
  9. failed to obtain node locks, tried with lock id [0]; maybe these locations are not writable or multi
  10. IntelliJ IDEA的官方汉化插件下载