一、机器学习

1.1 机器学习定义

计算机程序从经验E中学习,解决某一任务T,进行某一性能P,通过P测定在T上的表现因经验E而提高
eg:跳棋程序
E: 程序自身下的上万盘棋局
T: 下跳棋
P: 与新对手下跳棋时赢的概率

1.2 监督学习

1.2.1 监督学习定义

给算法一个数据集,其中包含了正确答案,算法的目的是给出更多的正确答案

1.2.2 例1:预测房价(回归问题)

回归问题目的: 预测连续的数值输出

1. 用直线拟合

2. 用二次函数或二阶多项式拟合(效果更佳)

1.2.3 例2:预测肿瘤是良性或恶性(分类问题)

分类问题目的: 预测离散值输出。
就本问题而言,结果只有0和1的输出。

1. 只有一个特征时

2. 有两个特征时

3. 算法最终的目的是解决无穷多个特征的数据集

1.3 无监督学习

1.3.1 无监督学习定义

只给算法一个数据集,但是不给数据集的正确答案,由算法自行分类。

1.3.2 聚类算法

  1. 谷歌新闻每天收集几十万条新闻,并按主题分好类
  2. 市场通过对用户进行分类,确定目标用户
  3. 鸡尾酒算法:两个麦克风分别离两个人不同距离,录制两段录音,将两个人的声音分离开来(只需一行代码就可实现,但实现的过程要花大量的时间)

二、单变量线性回归

2.1 线性函数

假设函数 hθ(x) = θ0 + θ1x

代价函数

J(θ0, θ1) = 12m\frac{1}{2m}2m1​∑i=1n\displaystyle\sum_{i=1}^{n}i=1∑n​ ( h(x(i)) − y(i))2(m表示训练样本的数量)

重新复习补充:h(x(i))是预测值,y(i)是实际值,两者取差。公式中的这个平方,似乎是最小二乘法和最佳平方/函数逼近,涉及到数值分析这一块知识,前置知识太多没去细理解,先按方差这么去理解。至于前面的12m\frac{1}{2m}2m1​中的2是为了后续求偏导更好计算。

目标: 最小化代价函数,即minimize J(θ0, θ1)

代价函数也被称为平方误差函数或者平方误差代价函数,在线性回归问题中,平方误差函数是最常用的手段

2.1.1 只考虑一个参数 θ1

为方便分析,先取θ0为0并改变θ1的值,得到多组J(θ0) = 12m\frac{1}{2m}2m1​∑i=1n\displaystyle\sum_{i=1}^{n}i=1∑n​ ( h(x(i)) − y(i))2,并作出下右图
得到的minimize J(θ0) 就是线性回归的目标函数

2.1.2 θ0和θ1都考虑

  • 得到的三维图如下
  • 将三维图平面化
    等高线的中心对应最小代价函数

2.2 梯度下降

算法思路

  • 指定θ0 和 θ1的初始值
  • 不断改变θ0和θ1的值,使J(θ01)不断减小
  • 得到一个最小值或局部最小值时停止

梯度: 函数中某一点(x, y)的梯度代表函数在该点变化最快的方向
(选用不同的点开始可能达到另一个局部最小值)

梯度下降公式

  • θj = θj − α ∂∂θj\frac{∂}{∂θj}∂θj∂​ J(θ0, θ1)
    其中 α 为学习速率( learning rate )
  • θ0和θ1应同步更新,否则如果先更新θ0,会使得θ1是根据更新后的θ0去更新的,与正确结果不相符

关于α
如果α选择太小,会导致每次移动的步幅都很小,最终需要很多步才能最终收敛
如果α选择太大,会导致每次移动的步幅过大,可能会越过最小值,无法收敛甚至会发散

实现原理

  • 偏导表示的是斜率,斜率在最低点左边为负,最低点右边为正。 θj减去一个负数则向右移动,减去一个正数则向左移动
  • 在移动过程中,偏导值会不断变小,进而移动的步幅也不断变小,最后不断收敛直到到达最低点
  • 在最低点处偏导值为0,不再移动

2.3 线性回归的梯度下降 / Batch梯度下降

  • 公式推导:

J(θ0, θ1) = 12m\frac{1}{2m}2m1​∑i=1n\displaystyle\sum_{i=1}^{n}i=1∑n​ ( h(x(i)) − y(i))2 = 12m\frac{1}{2m}2m1​∑i=1n\displaystyle\sum_{i=1}^{n}i=1∑n​ ( (θ0 + θ1x(i)) − y(i))2

j = 0时表示对θ0求偏导
j = 1时表示对θ1求偏导

∂J(θ0,θ1)∂θ0\frac{∂J(θ ~0 , θ ~1 )}{∂θ ~0 }∂θ 0∂J(θ 0,θ 1)​ = 1m\frac{1}{m}m1​∑i=1n\displaystyle\sum_{i=1}^{n}i=1∑n​ ( (θ0 + θ1x(i)) − y(i))

∂J(θ0,θ1)∂θ1\frac{∂J(θ ~0 , θ ~1 )}{∂θ ~1 }∂θ 1∂J(θ 0,θ 1)​ = 1m\frac{1}{m}m1​∑i=1n\displaystyle\sum_{i=1}^{n}i=1∑n​ ( (θ0 + θ1x(i)) − y(i)) x(i)

x(i)的 i 表示第 i 个样本

进而更新得到:

θ0 := θ0 - α1m\frac{1}{m}m1​∑i=1n\displaystyle\sum_{i=1}^{n}i=1∑n​ ( (θ0 + θ1x(i)) − y(i))

θ1 := θ0 - α1m\frac{1}{m}m1​∑i=1n\displaystyle\sum_{i=1}^{n}i=1∑n​ ( (θ0 + θ1x(i)) − y(i)) x(i)

梯度回归的局限性: 可能得到的是局部最优解
线性回归的梯度下降的函数是凸函数,因此没有局部最优解,只有全局最优解
凸函数

三、矩阵

3.1 矩阵加法和标量乘法

同维矩阵对应位置相加。

矩阵对应位置乘标量。

3.2 矩阵乘向量

A12表第一行第二列
A11 * x1 + A12 * x2 + A13 * x3 + …… + A1n * xn = y1
A21 * x1 + A22 * x2 + A23 * x3 + …… + A2n * xn = y2

3.2 矩阵乘法

An1 * B1b + An2 * B2b + …… + Anm * Bab = Cnb

eg:
A11 * B11 + A12 * B21 + A13 * B31 + …… + A1n * Bn1 = C11


矩阵乘法特征(对于一般矩阵而言)

  • 不满足交换律
  • 满足结合律

3.3 矩阵逆和矩阵转置

单位矩阵

  • I 表示
  • 主对角线上都是1,其余位置都是0

逆矩阵

  • A-1 表示

  • A * A-1 = I

矩阵转置

  • 用AT表示

  • Anm变为Amn

四、多变量线性回归

4.1 多变量线性回归假设函数

x(i) 表示第 i 组样本
xj(i) 表示第 i 组样本中的第 j 个数据

eg:
x4(2)表示第4组样本中的第2个数据,值为40

假设函数
hθ(x) = θ0 + θ1x1 + θ2x2 + …… + θnxn

定义x0 = 1 (即θ0的系数,也即x0(i) = 1 )

x = [x0, x1, x2, ……, xn]T
θ = [θ0, θ1, θ2,…, θn]T, θ∈Rn+1

进而
假设函数可记作:hθ(x) = θTx

4.2 多元梯度下降法

∂J(θ)∂θ0\frac{∂J(θ )}{∂θ ~0 }∂θ 0∂J(θ)​ = 1m\frac{1}{m}m1​∑i=1n\displaystyle\sum_{i=1}^{n}i=1∑n​ ( hθ(x) (i)) − y(i))x0(i)

∂J(θ)∂θ1\frac{∂J(θ)}{∂θ ~1 }∂θ 1∂J(θ)​ = 1m\frac{1}{m}m1​∑i=1n\displaystyle\sum_{i=1}^{n}i=1∑n​ ( hθ(x) (i) − y(i)) x1(i)

∂J(θ)∂θ2\frac{∂J(θ)}{∂θ ~2 }∂θ 2∂J(θ)​ = 1m\frac{1}{m}m1​∑i=1n\displaystyle\sum_{i=1}^{n}i=1∑n​ ( hθ(x) (i)− y(i)) x2(i)

进而更新得到:

θ0 := θ0 - α1m\frac{1}{m}m1​∑i=1n\displaystyle\sum_{i=1}^{n}i=1∑n​ ( hθ(x) (i) − y(i))x0(i)

θ1 := θ0 - α1m\frac{1}{m}m1​∑i=1n\displaystyle\sum_{i=1}^{n}i=1∑n​ ( hθ(x) (i)− y(i)) x1(i)

θ2 := θ0 - α1m\frac{1}{m}m1​∑i=1n\displaystyle\sum_{i=1}^{n}i=1∑n​ (hθ(x) (i) − y(i)) x2(i)

4.3 特征缩放

当特征范围相差太大时,会一直来回振荡,梯度下降效率低
(本例子中θ0不考虑)
如下例中,x1范围为0~2000, x2范围为 1~5
引入特征缩放解决这一问题

xi = xi−μσ\frac{x ~ i ~ − μ}{σ}σx i −μ​

μ 为平均值,σ 为range(即max - min)

如下述例子
x1 = x1−10005\frac{x~1~ - 1000}{5}5x 1 −1000​

x2 = x2−25\frac{x~2~ - 2}{5}5x 2 −2​

其中1000 和 2 是事先知道的平均值

通常计算出来的 x 最好在-3 ~ +3之间

4.4 学习率

绘制代价函数J(θ)的变化来反映下降的过程

梯度下降更新公式: θj = θj - α ∂∂θj\frac{∂}{∂θ~j~}∂θ j ∂​J(θ)
形如下左两种情况都是α选取太大导致的。

选取合适的α:…\dots…, 0.001,0.003,0.01,0.03,0.1,0.3,1,…\dots…
以3为倍数找到一个最大值,以该最大值或比该最大值略小的值作为α

4.5 特征和多项式回归

房价预测问题

4.5.1 特征

假设有两个特征:x1 是土地宽度,x2 是土地纵向深度,则有hθ(x) = θ0 + θ1x1 + θ2x2
由于房价实际与面积挂钩,所以可假设x = x1 * x2,则有hθ(x) = θ0 + θ1x

数据集样本分布如图所示

4.5.2 多项式回归

选用二次模型拟合

曲线后半明显下降,不符合实际

选用三次模型拟合

曲线符合实际,但由于次方的出现,要十分注意自变量范围的选取

选用根号模型

能充分拟合,且自变量范围可变曲度大

4.6 正规方程

作用: 求解某些线性回归的参数θ

4.6.1推导过程

代价函数:

J(θ) = 12m\frac{1}{2m}2m1​ ∑i=1m\displaystyle\sum_{i=1}^{m}i=1∑m​ (hθ(x(i)) - y(i))2

对J (θ) 求偏导并令导数为零可解得: θ = (XTX)-1XTy

推导过程如下:

  • 实例中,假设有m个样本,n个特征
  • x(i)表第i个样本,可写成下左形式的向量。
  • 设计矩阵X,取第1个到第m个样本的逆作为X的行,得到m*(n+1)矩阵X

复习补充: 这段推导没看明白,视频里是直接推出最终式子。看弹幕提到是涉及矩阵微分式,之后再做学习

∂∂θ\frac{∂}{∂θ}∂θ∂​J(θ) = 1m\frac{1}{m}m1​ ∑i=1m\displaystyle\sum_{i=1}^{m}i=1∑m​ (hθ(x(i)) - y(i))x(i) = 0

可得

θ = (XTX)-1XTy

其中X为特征矩阵,y为目标矩阵(看视频有提到说特征值过于复杂时,该种方法计算速度较慢)

4.6.2 正规方程同梯度下降比较

  1. 是同级算法
  2. 梯度下降缺点是需确定α,需要许多次迭代;优点是适用于样本量大(m > 10000)的数据
  3. 正规方程缺点是不适用于样本量大(m > 10000)的数据,但无需确定α,无需许多次迭代

4.6.3 正规方程与不可逆矩阵

矩阵不可逆的情况很少,导致不可逆可能有以下两个原因:

  1. 两个及两个以上的特征量呈线性关系,如x1 = 3x2
  2. 特征量过多。当样本量较小时,无法计算出那么多个偏导来求出结果

实际操作过程中,要删除多余特征,且呈线性关系的多个特征保留一个即可

Octave中的pinv即使面对不可逆矩阵,也能计算出结果,得出来的是伪矩阵

五、Octave

5.1 基本操作

5.1.1 加减乘除与逻辑判断

5 + 6
ans = 11
3 - 2
ans = 1
5 * 8
ans = 40
1 / 2
ans = 0.50000
2 ^ 6
ans = 64
1 == 2        //判断 1 是否等于 2
ans = 0
1 ~= 2
ans = 1
1 && 0      //and
ans = 0
1 || 0      //or
ans = 1
xor(1, 0)   //异或
ans = 1//消除注释
PS1('>> ')

5.1.2 dips()与format

dips(a);
disp(spintf('2 decimals: %0.2f', a))
format long
format short

5.1.3 矩阵与向量

A = [1 2; 3 4; 5 6]

v = 1:0.1:2
v = 1:6

5.1.4 ones() 、 zeros() 与rands()

ones(2, 3)
2*ones(2, 3)

zeros(1, 3)

rand(1, 3)

5.1.5 hist()

w = -6 + sqrt(10)*(randn(1, 10000))
hist(w)

后续第五节有关Octave,先跳过,后续再补上

六、逻辑回归

6.1 线性回归对于分类问题的局限性

由于离群点的存在,线性回归不适用于分类问题。

如下图(阈值为0.5),由于最右离群点,再用线性回归与实际情况不拟合。

因此,我们引入 逻辑回归(logistic regression) 算法,来解决这个问题。

6.2 logistic regression假设陈述

logistic regression的假设函数值总是在0到1之间

logistic regression模型

线性回归中 hθ(x) = θTx
作一下修改,变成下图形式

logistic函数 / sigmoid函数

定义logistic函数g如下


6.2 决策边界

决策边界不是训练集的属性,而是假设本身及其参数的属性
简单来说就是一个分类问题划分依据,可以是一条直线,在这条直线的上方就是y=1,下方就是y=0
用例子进一步说明

6.2.1 例1

假设有一个训练集:

用一种方法或者假设,得到参数θ0 = -3,θ1 = 1,θ2 = 1

预测 y = 1 if -3 + x1 + x2 ≥ 0,即x1 + x2 ≥ 3
则有下图,中间的洋红色直线即为 决策边界(即x1 + x2 = 3)

6.2.1 例2

其他参数更多更复杂的也同理

6.3 代价函数(cost function)

6.3.1 cost function的导出

将线性回归的代价函数改写为如下形式(即把1/2提到后面去)

取12m\frac{1}{2m}2m1​ (h(x(i)) − y(i))2 定义cost函数为

如果在逻辑回归中用线性回归的代价函数,由于 hθ 实际为 g(θTx) ,会导致图像为非凸函数,很难得到最小代价函数

6.3.2 cost function 运用到逻辑回归中


y表示实际,hθ(x)表示预测(原理李宏毅老师的课程中有)
对cost函数作图分析
1. 当y = 1时
if hθ(x) = 1, cost = 0
if hθ(x) = 0, cost = ∞ (预测与实际完全不一致,要花费很大的代价惩罚算法)

关于图像的导出

2. 当y = 0时
if hθ(x) = 0, cost = 0
if hθ(x) = 1, cost = ∞ (预测与实际完全不一致,要花费很大的代价惩罚算法)

即cost函数值越小,代价函数越好

6.4 简化代价函数与梯度下降


将上述式子合并为一个式子

Cost(hθ(x), y) = -ylog(hθ(x)) - (1 - y)log(1 - hθ(x))

当y = 1时,后一个式子整体为0
当y = 0时,前一个式子整体为0

进而我们得到

求最小代价函数



注意:

  1. 逻辑回归的代价函数看似与线性回归的代价函数相同,但本质不同。
  2. 逻辑回归中的hθ(x) = 1 / e-θT^x(T是θ的上标)
  3. 线性回归中的hθ(x) = θTx

6.5 高级优化

本质: 利用一些高级算法,来更快计算出结果。

通常这些算法:

  1. 能够自主选择α
  2. 速度大大快于梯度下降
  3. 比梯度下降更为复杂

Octave中的标号是从1开始的
故theta[1] = θ0,theta[n + 1] = θn

写一个costFunction()函数
该函数需返回

  1. jVal。因此需要一些代码来计算出J(θ)的值
  2. gradient。gradient(1)对应关计算出关于θ0的代码

6.7 多元分类:一对多

多元分类: 结果有多种可能。

下例,有三种可能结果。

将它们两两作为一组,得到



最后需要输入一个x,选择h最大的类别,也即在三个分类器中选择可信度最高,效果最好的

七、过拟合问题

7.1 过拟合定义

过拟合
当变量过多时,训练出来的假设能很好地拟合训练集,所以代价函数实际上可能非常接近于0,但得到的曲线为了千方百计的拟合数据集,导致它无法泛化到新的样本中,无法预测新样本数据

泛化
指一个假设模型应用到新样本的能力


下左欠拟合,存在高偏差
下中拟合适中
下右过拟合,存在高方差

解决方法

  • 减少特征数量
    人工选择
    模型选择算法(后续讲到)

    缺点:舍弃一部分特征变量也舍弃了关于问题的一些信息

  • 正则化
    减少特征量级或参数θj的大小

7.2 过拟合代价函数

7.2.1 房价例子引入


以这个例子为例,其代价函数为

在之后再加上两项(1000为任意一个较大的数)

为了minisize代价函数,自然而然地θ3,θ4要等于0,从而去除了这两项,相当于惩罚这两项使得原来的式子变为二次函数
在一般的回归函数中,使参数的值更小一般会使得曲线更为平滑而减少过拟合情况的发生

7.2.2 代价函数(正则化)

  • 如果有很多参数,我们不清楚哪个参数是高阶项,即不知道惩罚哪个能获得更好拟合的结果,因此引入正则化项统一惩罚参数以得到较为简单的函数
  • 统一惩罚能得到简单结果是因为,高阶项受到惩罚的效果会更强,反映在图像上就是使其影响变弱
  • 其中
    + 后的一项为正则化项
    λ正则化参数,作用是控制两个不同目标之间的取舍
    (1)第一个目标与第一项有关,即我们想要更加拟合数据集
    (2)第二个目标与第二项有关,即我们想要参数θj尽量小
  • 惩罚从θ1到θn,不包括θ0(之所以不惩罚theta0是为了让拟合的函数尽量简单,极端情况就是hθ(x) = θ0,代表的一条水平线,不过实操中有无θ0影响不大)
  • 若 λ 设置的过大,即对θ1θ2θ3θ4的惩罚程度过大,导致θ1θ2θ3θ4都接近于0,最后假设模型只剩一个θ0,出现欠拟合情况

7.3 线性回归的正则化

7.3.1 梯度下降的正则化

由于正则化是从1到n项,故先将θ0提出来

将第二个式子写成下面这样的形式

其中m是样本量,所以一般都是一个很大的值,λ 正则化参数,一般都不大。故 1 - αλm\frac{λ}{m}mλ​一项的值比1略小
每次迭代时,θj都乘这么一个比1略小的数,效果相当于梯度下降

7.3.2 正规方程的正则化

7.4 逻辑回归的正则化

首先有这么个例子

其cost函数为

进而得到其偏导

与之前操作类似的,得到 能计算加上正则项的cost函数的偏导 jVal代码,和计算每一个偏导值的gradient(i)代码

八、神经网络

8.1 神经网络的必要性

当特征值只有两个时,我们仍可以用之前学过的算法去解决

但当特征值很多,且含有很多个多次多项式时,用之前的算法就很难解决了
例 汽车识别
计算机识别汽车是靠像素点的亮度值

给定数据集汽车和非汽车的数据,按照之前的方法划分

可以看到仅针对50*50像素的灰白图片,就有2500个特征值。当引入rgb时,特征值达到了7500个,如果算上多次多项式,特征值达到了三百万个,显然再继续用之前的算法难以处理这么庞大的数据

8.2 模型展示

8.2.1 神经元的工作方式

神经元由树突接收外界信息,经神经元计算,再由轴突发出信息
神经元之间可互相传递信息

类似地,我们定义一个神经网络如下:

  • x0,a0为偏置单元,默认值为1
  • Layer1是输入层,Layer3是输出层,Layer2的工作过程看不到故为隐藏层
  • ai(j)是第 j 层第 i 个神经元的激活值(即由一个具体神经元计算并输出的值)
  • θ(j)是权重矩阵,控制从第 j 层到第 j + 1层的映射


    进而得到 a(2) 和 hθ(x) 的计算公式
    θ是映射,可理解为是中间的连线。
    因为是矩阵相乘,x是4行1列向量(记得算上x0),所以θ是4列,又因为a有三个,所以θ是3行,最后得θ是3行4列向量,则θ × x结果为3行1列向量


    如果一个网络在第 j 层有 sj 个单元,在第 j + 1 层有 sj +1 个单元,则矩阵θj的维度为 sj+1 * (sj +1 )。如θ(2)是3×4矩阵

8.2.2 前向传播

从输入单元的激活项开始,进行前向传播给隐藏层,计算隐藏层的激活项,继续前向传播,并计算输出层的激活项

  • 由之前我们有如下式子

  • 其中 x 为 4维向量
  • z(2) = θ(1)x,从而z是一个 3维向量


  • 进而

  • 进而 a(2) = g(z(2))

  • 类似的,加上a0(2) = 1,a(2)为 4维向量,进而得到

    合在一起比较好理解

    更复杂的神经网络
    中间的均为隐藏层
    一层层往后越来越复杂

8.3 例:神经网络用于计算XOR,XNOR

  • 定义两个特征x1,x2,它们的值只能为0或1

  • AND
    引入x0,值为1。对权重 / 参数进行赋值,-30、+20、+20
    x1 = 0,x2 = 0,hθ(x)结果为0
    同理得到另外三组结果
    总结果与 x1 AND x2 一致

  • OR
    与AND同理

  • (NOT x1)AND(NOT x2
    NOT即结果取反。如果x1输入为1,则输出为0
    x1输入0,hθ(x1)输出1;x2输入0,hθ(x2)输出1,再进行AND运算可得最终结果
    其他三种情况同理

- XNOR
有AND,(NOT x1)AND (NOT x2), OR三个前提
同样在输入层定义x0,x1,x2
在隐藏层中
进行AND运算得到a1(2),进行(NOT x1)AND (NOT x2)运算得到a2(2)
在输出层中
进行OR运算得到a1(3),即为最终结果

每层都是通过计算不断复杂

九、神经网络的运用

9.1 代价函数


定义 L,指网络中共有多少层
定义sL,指每层中有多少个偏差单元
如,s1 = 3,s4 = sL = 4

针对01输出问题

  1. 二元分类

    只有一个输出,则sL = 1
    K = 1(K表示输出层的单元数目)

    输出结果h(x)是一个实数

  2. 多类别分类

    K个输出单元(K ≥ 3,不然没有必要用多类别分类)

    输出结果h(x)是一个K维向量
    (eg:有不同的交通工具,定义一个结果集yk每个车对应向量第j行的值是1,其他位置都为0,将结果h(x)与yk比较,对应得上则说明是该交通工具)

代价函数

在逻辑回归中,我们有如下代价函数

演化到神经网络中,得到如下代价函数

  • 其中

    两个连加类似for循环。
    这里相当于求k等于从1到4的每一个逻辑回归算法的代价函数,然后按四次输出的顺序,依次把这些代价函数加起来

  • 其次

    这一项表对所有θji(l)求和
    1 到 L - 1是因为映射是两两之间的

  • 注意 j 和 i 没有标错,按照之前的定义,i 就是θ向量的列(i可理解为前一层输入的单元数也即样本数),进而 j 就代表行

  • 在计算中,不将θi0这一项也进行计算,乘出来的结果有些类似于偏差单元的值,但实际运用中,影响不大

9.2 反向传播算法

为了最小化 J(Θ),需要求偏导

这需要用到反向传播算法,即先计算最后一层的误差,然后再一层一层反向求出各层的误差,直到倒数第二层(第一层是输入变量,不存在误差)

举例说明:
假设我们的训练集只有一个实例(

吴恩达 - 机器学习课程笔记(持续更新)相关推荐

  1. 吴恩达机器学习课程笔记一

    吴恩达机器学习课程笔记 前言 监督学习---`Supervised learning` 无监督学习---`Unsupervised learning` 聚类 异常检测 降维 增强学习---`Reinf ...

  2. 吴恩达机器学习课程笔记(英文授课) Lv.1 新手村(回归)

    目录 1-1机器学习的相关名词 1-2 什么是机器学习? 1.definition 定义 2.主要的机器学习算法的分类 1-3有监督学习及常用算法 1.定义 2.两种数据类型补充:categorica ...

  3. 【CV】吴恩达机器学习课程笔记 | 第1-2章

    本系列文章如果没有特殊说明,正文内容均解释的是文字上方的图片 机器学习 | Coursera 吴恩达机器学习系列课程_bilibili 目录 1 介绍 1-3 监督学习 1-4 无监督学习 2 单变量 ...

  4. 【CV】吴恩达机器学习课程笔记第17章

    本系列文章如果没有特殊说明,正文内容均解释的是文字上方的图片 机器学习 | Coursera 吴恩达机器学习系列课程_bilibili 目录 17 大规模机器学习 17-1 学习大数据集 17-2 随 ...

  5. 【CV】吴恩达机器学习课程笔记第16章

    本系列文章如果没有特殊说明,正文内容均解释的是文字上方的图片 机器学习 | Coursera 吴恩达机器学习系列课程_bilibili 目录 16 推荐系统 16-1 问题规划 16-2 基于内容的推 ...

  6. Github标星24300!吴恩达机器学习课程笔记.pdf

    个人认为:吴恩达老师的机器学习课程,是初学者入门机器学习的最好的课程!我们整理了笔记(336页),复现的Python代码等资源,文末提供下载. 课程简介 课程地址:https://www.course ...

  7. 【CV】吴恩达机器学习课程笔记第18章

    本系列文章如果没有特殊说明,正文内容均解释的是文字上方的图片 机器学习 | Coursera 吴恩达机器学习系列课程_bilibili 目录 18 应用案例:照片OCR 18-1 问题描述与流程(pi ...

  8. 【CV】吴恩达机器学习课程笔记第10章

    本系列文章如果没有特殊说明,正文内容均解释的是文字上方的图片 机器学习 | Coursera 吴恩达机器学习系列课程_bilibili 目录 10 应用机器学习的建议 10-1 决定下一步做什么 10 ...

  9. 【CV】吴恩达机器学习课程笔记第11章

    本系列文章如果没有特殊说明,正文内容均解释的是文字上方的图片 机器学习 | Coursera 吴恩达机器学习系列课程_bilibili 目录 11 机器学习系统设计 11-1 确定执行的优先级:以垃圾 ...

  10. 干货|机器学习零基础?不要怕,吴恩达机器学习课程笔记2-多元线性回归

    吴恩达Coursera机器学习课系列笔记 课程笔记|吴恩达Coursera机器学习 Week1 笔记-机器学习基础 1 Linear Regression with Multiple Variable ...

最新文章

  1. RxJava使用(三)Scheduler 线程控制
  2. Python之路,day22-BBS基础
  3. javascript json_JavaScript 之 JSON.parse 导致大数精度丢失问题的解决方案
  4. vue2.0+stylus实现商品增加减少控制按钮组件
  5. 都别争了!分布式锁也是锁
  6. 更改docker源 aliyun_番外篇 (1) Docker 安装
  7. 安装SQL Server 2012遇到“需要更新的以前的Visual Studio 2010实例.”
  8. php之图片上传到服务器的原理
  9. 恒流源驱动电路 随笔一
  10. 一级域名二级域名区别
  11. Java中API个人学习总结
  12. 企业微信会员运营 打破传统营销方式开启全渠道会员营销新模式
  13. MTK6737平台匹配设备节点的方法
  14. NLP与对比学习的巧妙融合,简单暴力效果显著!
  15. MySql数据库中查看资源使用情况
  16. MySQL 去重方法之一
  17. 模板模式详解、模板模式怎么用、模板模式模板代码
  18. Oracle在采购部增加一名员工,ORACLEEBS采购功能点操作手册1.doc
  19. 计算机化学博士点,一流大学建设高校各学科博士点一览
  20. 爬虫百战(四)——爬取yy短视频

热门文章

  1. 关于idea链接oracle数据库出现IO 错误: Got minus one from a read call, connect lapse 1 ms., Authen
  2. 轻松实现页面提交时,显示“提交中..”
  3. 通过 PPT 快速给证件照换底色
  4. Ubuntu16.04cuda8与cuda10共存,同时使用Tensorflow1.13.1(需重装显卡驱动)
  5. 2021年中国国内生产总值(GDP)、GDP结构及人均国内生产总值分析[图]
  6. R语言中5种正态性检验的方法
  7. BRCA1、BRCA2基因突变的检测方法与流程
  8. 短信验证码 超时 java_短信验证码被刷怎么办?java 短信验证码防刷策略
  9. crmeb多商户1.7.3
  10. 极速手游加速SDK快速指入指南+极速手游加速器SDK参考文档