CS229 Lecture notes

原作者:Andrew Ng(吴恩达)

翻译:CycleUser

Part V
学习理论(Learning Theory)

1 偏差/方差的权衡(Bias/variance tradeoff )

在讲线性回归的时候,我们讨论过这样的问题:拟合数据的时候,选择线性的“y = θ0 +θ1x”这样的“简单”模型,还是选择多项式的“y=θ0+θ1x+···θ5x5”这种“复杂”模型。如下图所示:

如最右侧图所示,用一个五次多项式来进行拟合,得到的并不是一个好模型。而且,这个五次多项式对于训练集中的每一个 x(例如之前文中说的居住面积)都给出了非常好的预测的 y 值(对应的就是房屋价格),我们也不能指望这个模型能够对训练集之外的点给出靠谱的预测。换句话说,用这种高次多项式来对训练集进行学习得到的模型根本不能扩展运用到其他房屋上面去。一个推测模型(hypothesis)的泛化误差(generalization error,稍后再给出正式定义)正式那些不属于训练集的样本潜在的预期偏差(expected error on examples not necessarily in the training set)。

上面图中最左边的线性拟合和最右边的高次多项式拟合都有非常大的泛化误差。然而,这两个模型各自出的问题是很不一样的。如果 y 和 x 之间的关系不是线性的,那么即便我们有一个非常大规模的训练集,然后用来进行线性拟合,得到的线性模型都还是不能够准确捕捉到数据的结构。我们粗略地将一个模型的偏差(bias)定义为预期的泛化误差(expected generalization error),即便我们要去拟合的对象是一个非常大的甚至是无限的训练数据集。这样的话,对于上面三幅图中所展示的那个情况来看,最左边的那个线性模型就具有特别大的偏差(bias),可能是对数据欠拟合(也就是说,没有捕捉到数据所体现的结构特征)。

除了这个偏差(bias)之外,还有另外一个构成泛化误差(generalization error)的因素,也就是模型拟合过程的方差(variance)。例如在最右边的图中,使用了五次多项式进行了拟合,这样有很大的风险,很可能我们基于数据拟合出来的模型可能碰巧只适合于眼下这个小规模的有限的训练集,而并不能反映 x 和 y 之间更广泛的关系。例如,在实际中,可能我们选择的训练集中的房屋碰巧就是一些比平均价格要稍微贵一些的房屋,也可能有另外的一些比平均值要低一点的房屋,等等。通过对训练集拟合得到的这个“不太靠谱的(spurious)”的模式,我们得到的可能也就是一个有很大泛化误差(large generalization error)的模型。这样的话,我们就说这个模型的方差很大(large variance)。

1在讲义里面,我们不准备给出对偏差(bias)和方差(variance)给出正式的定义,也就说道上面讨论这样的程度而已。当然了,这两者都有严格的正式定义,例如在线性回归里面,对于这两者的定义,有若干不同的观点,但是哪一个最权威最正确(right)呢?这个还有争议的。

通常情况下,咱们需要再偏差(bias)和方差(variance)之间进行权衡妥协。如果我们的模型过于“简单(simple)”,而且参数非常少,那这样就可能会有很大的偏差(bias),而方差(variance)可能就很小;如果我们的模型过于“复杂(complex)”,有非常多的参数,那就可能反过来又特别大的方差(variance),而偏差(bias)就会小一些。在上面三种不同拟合的样例中,用二次函数来进行拟合得到的效果,明显是胜过一次线性拟合,也强于五次多项式拟合。

2 预先准备(Preliminaries)

在这一部分的讲义中,我们要开始进入到机器学习的理论(learning theory)了。本章内容非常有趣,而且有启发性,还能帮助我们培养直觉,能够得到在不同背景下如何最佳应用学习算法的经验规则。此外,我们还会探究一些问题:首先,上文我们刚刚谈论到的偏差(bias)/方差(variance),能不能更正规地总结一下?这个问题还会引出关于模型选择的方法,这些方法可以在对一个训练集进行拟合的时候来帮助确定要用的多项式应该是几阶的。其次,在机器学习的过程中,我们真正关注的也就是泛化误差(generalization error),不过绝大部分的学习算法都是将训练集和模型结合的。那么针对训练集的表现好坏程度,为何就能告诉我们泛化误差的信息呢?例如,我们能将训练集的误差和泛化误差联系起来么?第三个,也是最后一点,是否存在某些条件,我们能否在这些条件下证明某些学习算法能够良好工作?

我们先来给出两个很简单又很有用的引理(lemma)。

引理1 (联合约束,The union bound)。设 A1, A2, ..., Ak 是 K个不同事件(但不一定互相独立),则有:

在概率论中,联合约束通常被当做是公理(所以我们就不尝试证明了),实际上也很直观的: k 个事件同时发生的概率最多是 k 个不同的事件每个都发生的概率的总和。

引理2 (Hoeffding 不等式) 。设 Z1, ... , Zm 是 m 个独立的并且共同遵循伯努利分布(Bernoulli(φ) distribution)的随机变量(independent and identically distributed (iid) random variables)。例如:P(Zi =1)=φ 而 P(Zi =0)=1−φ. 设 是这些随机变量的平均值,然后设任意的 γ > 0 为某一固定值(fixed),则有:

上面这个引理(在机器学习理论里面也称为 切尔诺夫约束,Chernoff bound)表明,如果我们我们从一个伯努利分布的随机变量中选取平均值 φˆ—来作为对 φ 的估计值,那么只要 m 足够大,我们偏移真实值很远的概率就比较小。另外一种表述方式是:如果你有一个有偏差的硬币(biased coin),抛起来落下人头朝上的概率是 φ,如果你抛了 m 此,然后计算人头朝上的比例,若 m 非常大,那么这个比例的值,就是一个对 φ 的一个概率很高的很好的估计。

基于上面这两个引理,我们就可以去证明在机器学习理论中一些很深刻和重要的结论了。

为了简化表述,我们先集中关注一下二分法分类,其中的标签简化为 y ∈ {0, 1}。然后我们即将讲到的所有内容也都会推广到其它问题中,例如回归问题以及多类别的分类问题等等。

假设我们有一个给定的训练集 S = {(x(i),y(i));i = 1,...,m},其样本规模为 m,集合中的训练样本 (x(i),y(i)) 是可以符合某概率分布 D 来的独立且同分布的随机变量。设一个假设(hypothesis)为 h,我们则用如下的方法定义训练误差(也成为学习理论中的经验风险 empirical risk 或者经验误差 empirical error):

这个值只是假设模型 h 分类错误样本占据训练样本总数的分数。如果我们要特定指针对某个训练样本集合 S 的经验误差 εˆ(h),可以写作 εˆS(h)。然后我们就可以定义泛化误差(generalization error)为:

经验误差 εˆ(h) 的这个定义实际上也就相当于,基于分布 D 给出的一个新的样本 (x, y) ,假设模型 h 对该样本分类错误的概率。

要注意,这里我们有一个预先假设,也就是训练集的数据与要用来检验假设用的数据都服从同一个分布 D(这一假设存在于对泛化误差的定义中)。这个假设通常也被认为是 PAC 假设之一。2

2PAC 是一个缩写,原型为“probably approximately correct”,这是一个框架和一系列假设的集合,在机器学习理论中的很多结构都是基于这些假设而证明得到的。这个系列假设中最重要的两个,就是训练集与测试集服从同一分布,以及训练样本的独立性。

考虑线性分类的情况,假设 hθ (x) = 1{θT x ≥ 0}。拟合参数 θ 的合理方法是什么呢?一个思路就是可以使训练误差(training error)最小化,然后选择取最小值的时候的 θ:

我们把上面这个过程称之为经验风险最小化(empirical risk minimization,缩写为 ERM),而这种情况下通过学习算法得到的假设结果就是 hˆ = hθˆ 。我们把 ERM 看做为最“基础(basic)”的学习算法,在这一系列的讲义中我们主要关注的就是这种算法。(其他的例如逻辑回归等等算法也可以看作是对 ERM 的某种近似(approximations)。)

In our study of learning theory, it will be useful to abstract away from the specific parameterization of hypotheses and from issues such as whether we’re using a linear classifier. We define the hypothesis class H used by a learning algorithm to be the set of all classifiers considered by it. For linear classification, H = {hθ : hθ(x) = 1{θTx ≥ 0}, θ ∈ Rn+1} is thus the set of all classifiers over X (the domain of the inputs) where the decision boundary is linear. More broadly, if we were studying, say, neural networks, then we could let H be the set of all classifiers representable by some neural network architecture.

在咱们关于机器学习理论的研究中,有一种做法很有用处,就是把具体的参数化(specific parameterization)抽象出去,并且也把是否使用线性分选器(linear classifier)之类的问题也抽象出去。我们把学学习算法所使用的假设类(hypothesis class)H 定义为所有分类器的集合(set of all classifiers)。对于线性分类问题来说,H = {hθ : hθ(x) = 1{θTx ≥ 0}, θ ∈ Rn+1},是一个对 X(输入特征) 进行分类的所有分类器的集合,其中所有分类边界为线性。更广泛来说,假设我们研究神经网络(neural networks),那么可以设 H 为能表示某些神经网络结构的所有分类器的集合。

现在就可以把 经验风险最小化(ERM)看作是对函数类 H 的最小化,其中由学习算法来选择假设(hypothesis):

3 有限个假设(finite H)的情况

我们首先来考虑一下假设类有限情况下的学习问题,其中假设类 H = {h1, ..., hk},由 k 个不同假设组成。因此,H 实际上就是由 K 个从输入特征 X 映射到集合 {0, 1} 的函数组成的集合,而经验风险最小化(ERM)就是从这样的 K 个函数中选择训练误差最小(smallest training error)的作为 hˆ。

We would like to give guarantees on the generalization error of hˆ. Our strategy for doing so will be in two parts: First, we will show that εˆ(h) is a reliable estimate of ε(h) for all h. Second, we will show that this implies an upper-bound on the generalization error of hˆ.

我们希望能够确保 hˆ 的泛化误差。这需要两个步骤:首先要表明 εˆ(h) 是对所有 h 的 ε(h) 的一个可靠估计。其次就需要表明这个 εˆ(h) 位于 hˆ 泛化误差的上界。

任选一个固定的 hi ∈ H。假如有一个伯努利随机变量(Bernoulli random variable) Z,其分布入下面式中定义。 然后我们从 D 中取样 (x, y),并设 Z = 1{hi(x) ̸= y}。也就是说,我们会选择一个样本,然后令 Z 指示 hi 是否对该样本进行了错误分类。类似地,我们还定义了一个 Zj = 1{hi(x(j)) ̸= y(j)}。由于我们的训练样本都是从 D 中取来的独立随机变量(iid),所以在此基础上构建的 Z 和 Zj 也都服从相同的分布。

这样就能找到针对随机选取的训练样本进行错误分类的概率 — 也就是 ε(h) — 正好就是 Z (以及 Zj) 的期望值(expected value)。然后,就可以把训练误差写成下面这种形式:

因此,εˆ(hi) 就正好是 m 个随机变量 Zj 的平均值,而这个 Zj 是服从伯努利分布的独立随机变量(iid),其均值就是 ε(hi)。接下来,就可以使用 Hoeffding 不等式,得到下面的式子:

这就表明,对于我们给定的某个固定的 hi,假如训练样本的规模 m 规模很大的时候,训练误差有很接近泛化误差(generalization error)的概率是很高的。然而我们不仅仅满足于针对某一个特定的 hi 的时候能保证 ε(hi) 接近 εˆ(hi) 且接近的概率很高。我们还要证明同时针对所有的 h ∈ H 这个结论都成立。 为了证明这个结论,我们设 Ai 来表示事件 |ε(hi) − εˆ(hi)| > γ。我们已经证明了,对于任意的固定的 Ai,都有 P(Ai) ≤ 2exp(−2γ2m) 成立。接下来,使用联合约束(union bound),就可以得出下面的关系:

如果等式两边都用 1 来减去原始值(subtract both sides from 1),则不等关系改变为:

(“¬” 这个符号的意思是 “非”。)如上所示,至少有 1−2k exp(−2γ2m) 的概率,我们能确保对于所有的 h ∈ H,ε(h) 在 εˆ(h) 附近的 γ 范围内。这种结果就叫做一致收敛结果(uniform convergence result),因为这是一个针对所有的 h ∈ H 都同时成立的约束(与之相反的是只针对某一个 h 才成立的情况)。

在上面的讨论中,我们涉及到的是针对某些 m 和 γ 的特定值,给定一个概率约束:对于某些 h ∈ H, 都有 |ε(h) − εˆ(h)| > γ。这里我们感兴趣的变量(quantities of interest)有三个:m, γ, 以及误差的概率(probability of error);我们可以将其中的任意一个用另外两个来进行约束(bound either one in terms of the other two)。

例如,我们可以提出下面这样的一个问题:给定一个 γ 以及某个 δ > 0,那么如果要保证训练误差处于泛化误差附近 γ 的范围内的概率最小为 1 – δ,那么 m 应该要多大呢?可以设 δ = 2k exp(−2γ2m) 然后解出来 m(自己给自己证明一下这样是对的吧!),然后我们就发现,如果有:

并且概率最小为 1 – δ,就能保证对于所有的 h ∈ H 都有 |ε(h) − εˆ(h)| ≤ γ。(反过来,这也表明,对于某些 h ∈ H, |ε(h) − εˆ(h)| > γ 的概率最大为 δ。)这种联合约束也说明了需要多少数量的训练样本才能对结果有所保证。是某些特定的方法或者算法所需要训练集的规模 m 来实现一定程度的性能(achieve a certain level of performance),这样的训练集规模 m 也叫做此类算法的样本复杂度(the algorithm’s sample complexity)。

上面这个约束的关键特性在于要保证结果,所需的训练样本数量只有 k 的对数(only logarithmic in k),k 即假设集合 H 中的假设个数。这以特性稍后会很重要。

同理,我们也可以将 m 和 δ 设置为固定值,然后通过上面的等式对 γ 进行求解,然后表明对于所有的 h ∈ H ,都有概率为 1 – δ(这里还是要你自己去证明了,不过你相信这个是对的就好了。)。

Now, let’s assume that uniform convergence holds, i.e., that |ε(h)−εˆ(h)| ≤ γ for all h ∈ H. What can we prove about the generalization of our learning algorithm that picked hˆ = arg minh∈H εˆ(h)?

现在,我们假设这个联合收敛成立(uniform convergence holds),也就是说,对于所有的 h ∈ H,都有 |ε(h)−εˆ(h)| ≤ γ。我们的学习算法选择了 hˆ = arg minh∈H εˆ(h),关于这种算法的泛化,我们能给出什么相关的证明呢?

Define h∗ = arg minh∈H ε(h) to be the best possible hypothesis in H. Note that h∗ is the best that we could possibly do given that we are using H, so it makes sense to compare our performance to that of h∗. We have:

将 h∗ = arg minh∈H ε(h) 定义为 H 中最佳可能假设(best possible hypothesis)。这里要注意此处的 h∗ 是我们使用假设集合 H 所能找出的最佳假设,所以很自然地,我们就能理解可以用这个 h∗ 来进行性能对比了。则有:

上面的第一行用到了定理 | ε (hˆ ) − εˆ (hˆ ) | ≤ γ(可以通过上面的联合收敛假设来推出)。第二行用到的定理是 hˆ 是选来用于得到最小 εˆ(h) ,然后因此对于所有的 h 都有 εˆ(hˆ) ≤ εˆ(h),也就自然能推出 εˆ(hˆ) ≤ εˆ(h∗)。第三行再次用到了上面的联合收敛假设,此假设表明 εˆ(h∗) ≤ ε(h∗) + γ。所以,我们就能得出下面这样的结论:如果联合收敛成立,那么 hˆ 的泛化误差最多也就与 H 中的最佳可能假设相差 2γ。

好了,咱们接下来就把上面这一大堆整理成一条定理(theorem)。设 |H| = k(译者注:即 H 集合中元素个数为 k),然后设 m 和 δ 为任意的固定值。然后概率至少为 1 − δ,则有:

This is proved by letting γ equal the  term,using our previous argument that uniform convergence occurs with probability at least 1 − δ, and then noting that uniform convergence implies ε(h) is at most 2γ higher than ε(h∗) = minh∈H ε(h) (as we showed previously).

上面这个可以通过令 γ 等于平方根的形式,然后利用我们之前得到的概率至少为 1 – δ 的情况下联合收敛成立,接下来利用联合收敛能表明 ε(h) 最多比 ε(h∗) = minh∈H ε(h) 多 2γ(这个前面我们已经证明过了)。

这也对我们之前提到过的在模型选择的过程中在偏差(bias)/方差(variance)之间的权衡给出了定量方式。例如,加入我们有某个假设类 H,然后考虑切换成某个更大规模的假设类 H′ ⊇ H。如果我们切换到了 H′ ,那么第一次的 minh ε(h) 只可能降低(因为我们这次在一个更大规模的函数集合里面来选取最小值了)。因此,使用一个更大规模的假设类来进行学习,我们的学习算法的“偏差(bias)”只会降低。然而,如果 k 值增大了,那么第二项的那个二倍平方根项也会增大。这一项的增大就会导致我们使用一个更大规模的假设的时候,“方差(variance)”就会增大。

By holding γ and δ fixed and solving for m like we did before, we can also obtain the following sample complexity bound

通过保持 γ 和 δ 为固定值,然后像上面一样求解 m,我们还能够得到下面的样本复杂度约束:

Corollary. Let |H| = k, and let any δ,γ be fixed. Then for ε(hˆ) ≤ minh∈H ε(h) + 2γ to hold with probability at least 1 − δ, it suffices that

推论(Corollary):设 |H| = k ,然后令 δ,γ 为任意的固定值。对于满足概率最少为 1 − δ 的 ε(hˆ) ≤ minh∈H ε(h) + 2γ ,下面等式关系成立:

4 无限个假设(infinite H)的情况

我们已经针对有限个假设类的情况证明了一些有用的定理。然而有很多的假设类都包含有无限个函数,其中包括用实数参数化的类(比如线性分类问题)。那针对这种无限个假设的情况,我们能证明出类似的结论么?

我们先从一些不太“准确”论证的内容开始(not the “right” argument)。当然也有更好的更通用的论证,但先从这种不太“准确”的内容除法,将有助于锻炼我们在此领域内的直觉(intuitions about the domain)。

若我们有一个假设集合 H,使用 d 个实数来进行参数化(parameterized by d real numbers)。由于我们使用计算机表述实数,而 IEEE 的双精度浮点数( C 语言里面的 double 类型)使用了 64 bit 来表示一个浮点数(floating-point number,),这就意味着如果我们在学习算法中使用双精度浮点数(double- precision floating point),那我们的算法就由 64 d 个 bit 来进行参数化(parameterized by 64d bits)。这样我们的这个假设类实际上包含的不同假设的个数最多为 k = 264d 。结合上一节的最后一段那个推论(Corollary),我们就能发现,要保证 ε(hˆ) ≤ ε(h∗) + 2γ ,同时还要保证概率至少为 1 − δ ,则需要训练样本规模 m 满足。(这里的 γ,δ 下标表示最后一个大O 可能是一个依赖于γ和δ的隐藏常数。)因此,所需的训练样本规模在模型参数中最多也就是线性的(the number of training examples needed is at most linear in the parameters of the model)。

The fact that we relied on 64-bit floating point makes this argument not entirely satisfying, but the conclusion is nonetheless roughly correct: If what we’re going to do is try to minimize training error, then in order to learn “well” using a hypothesis class that has d parameters, generally we’re going to need on the order of a linear number of training examples in d.

由于我们要依赖 64 bit 浮点数,所以上面的论证还不能完全令人满意,但这个结论大致上是正确的:如果我们试图使训练误差(training error)最小化,那么为了使用具有 d 个参数的假设类(hypothesis class)的学习效果“较好(well)”,通常就需要按照 d 的线性数量来确定训练样本规模。(译者注:这句话的翻译肯定是错的,因为原文的语法我根本不能理解, 我第一次见到动词 need 后面用介词短语,而那个介词短语在此处我也不能确定具体意义,希望大家给提出指正,抱歉了。)

(在这里要注意的是,对于使用经验风险最小化(empirical risk minimization ,ERM)的学习算法,上面这些结论已经被证明适用。因此,样本复杂度(sample complexity)对 d 的线性依赖性通常适用于大多数分类识别学习算法(discriminative learning algorithms),但训练误差或者训练误差近似值的最小化,就未必适用于分类识别了。对很多的非 ERM 学习算法提供可靠的理论论证,仍然是目前很活跃的一个研究领域。)

前面的论证还有另外一部分让人不太满意,就是依赖于对 H 的参数化(parameterization)。根据直觉来看,这个参数化似乎应该不会有太大影响:我们已经把线性分类器(linear classifiers)写成了 hθ(x) = 1{θ0 + θ1x1 + ···θnxn ≥ 0} 的形式,其中有 n+1 个参数 θ0,...,θn 。但也可以写成 hu,v(x) = 1{(u20 − v02) + (u21 − v12)x1 + ··· (u2n − vn2)xn ≥ 0} 的形式,这样就有 2n+2 个参数 ui, vi 了。然而这两种形式都定义了同样的一个 H: 一个 n 维的线性分类器集合。

要推导出更让人满意的论证结果,我们需要再额外定义一些概念。

给定一个点的集合 S = {x(i), ..., x(d)}(与训练样本集合无关),其中 x(i) ∈ X,如果 H 能够对 集合 S 实现任意的标签化(can realize any labeling on S),则称 H 打散(shatter)了 S。例如,对于任意的标签集合 (set of labels)∂ {y(1), ..., y(d)},都有 类 H 中的某个函数 h 满足 h(x(i)) = y(i),其中 i = 1, ...d。(译者注:关于 shattered set 的定义可以参考:https://en.wikipedia.org/wiki/Shattered_set 更多关于 VC 维 的内容也可以参考:https://www.zhihu.com/question/38607822 )

给定一个假设类 H,我们定义其 VC维度(Vapnik-Chervonenkis dimension),写作 VC(H),这个值也就是能被 H 打散(shatter)的最大的集合规模。(如果 H 能打散任意大的集合(arbitrarily large sets),那么 VC(H) = ∞。)

例如,若一个集合由下图所示的三个点组成:

那么二维线性分类器 (h(x) = 1{θ0 +θ1x1 + θ2x2 ≥ 0}) 的集合 H 能否将上图所示的这个集合打散呢?答案是能。具体来看则如下图所示,以下八种分类情况中的任意一个,我们都能找到一种用能够实现 “零训练误差(zero training error)” 的线性分类器(linear classifier):

此外,这也有可能表明,这个假设类 H 不能打散(shatter)4 个点构成的集合。因此,H 可以打散(shatter)的最大集合规模为 3,也就是说 VC(H)= 3。

这里要注意,H 的 VC 维 为3,即便有某些 3 个点的集合不能被 H 打散。例如如果三个点都在一条直线上(如下图左侧的图所示),那就没办法能够用线性分类器来对这三个点的类别进行划分了(如下图右侧所示)。

换个方式来说,在 VC 维 的定义之下,要保证 VC(H) 至少为 D,只需要证明至少有一个规模为 d 的集合能够被 H 打散 就可以了。

这样就能够给出下面的定理(theorem)了,该定理来自 Vapnik。(有不少人认为这是所有学习理论中最重要的一个定理。)

Theorem. Let H be given, and let d = VC(H). Then with probability at least 1−δ, we have that for all h∈H,

定理:给定 H,设 d = VC(H)。然后对于所有的 h∈H,都有至少为 1−δ 的概率使下面的关系成立:

此外,有至少为 1−δ 的概率:

换句话说,如果一个假设类有有限的 VC 维,那么只要训练样本规模 m 增大,就能够保证联合收敛成立(uniform convergence occurs)。和之前一样,这就能够让我们以 ε(h∗) 的形式来给 ε(h∗) 建立一个约束(bound)。此外还有下面的推论(corollary):

Corollary. For |ε(h) − εˆ(h)| ≤ γ to hold for all h ∈ H (and hence ε(hˆ) ≤ ε(h∗) + 2γ) with probability at least 1 − δ, it suffices that m = Oγ,δ(d).

推论(Corollary):对于所有的 h ∈ H 成立的 |ε(h) − εˆ(h)| ≤ γ (因此也有 ε(hˆ) ≤ ε(h∗) + 2γ),则有至少为 1 – δ 的概率,满足 m = Oγ,δ(d)。

In other words, the number of training examples needed to learn “well” using H is linear in the VC dimension of H. It turns out that, for “most” hypothesis classes, the VC dimension (assuming a “reasonable” parameterization) is also roughly linear in the number of parameters. Putting these together, we conclude that (for an algorithm that tries to minimize training error) the number of training examples needed is usually roughly linear in the number of parameters of H.

换个方式来说,要保证使用 假设集合 H 的 机器学习的算法的学习效果“良好(well)”,那么训练集样本规模 m 需要与 H 的 VC 维度 线性相关(linear in the VC dimension of H)。这也表明,对于“绝大多数(most)”假设类来说,(假设是“合理(reasonable)”参数化的)VC 维度也大概会和参数的个数线性相关。把这些综合到一起,我们就能得出这样的一个结论:对于一个试图将训练误差最小化的学习算法来说:训练样本个数 通常都大概与假设类 H 的参数个数 线性相关。

斯坦福 机器学习-第四章学习理论相关推荐

  1. 机器学习第四章之逻辑回归模型

    逻辑回归模型 4.1 逻辑回归模型算法原理 4.1.1 逻辑回归模型的数学原理(了解) 4.1.2 逻辑回归模型的代码实现(重要) 4.1.3 逻辑回归模型的深入理解 4.2 案例实战 - 股票客户流 ...

  2. pca降维的基本思想_百面机器学习 第四章 降维 PCA

    降维:用低维度向量表示高纬度特征. 主成分分析PCA.线性判别分析LDA.等距映射.局部线性嵌入.拉普拉斯特征映射.局部保留投影. 1.PCA PCA是一种线性.非监督.全局的降维算法. 推理: (1 ...

  3. 吴恩达机器学习第四章

    4.1 多维特征 参考视频: 4 - 1 - Multiple Features (8 min).mkv 前几章,我们学习了单变量/特征的回归模型,现在我们对房价模型增加更多的特征, 例如房间数楼层等 ...

  4. 第十四章 降维操作-机器学习老师板书-斯坦福吴恩达教授

    第十四章 降维 14.1 目标一:数据压缩 14.2 目标二:可视化 14.3 主成分分析 14.4 主成分分析算法 14.5 选择主成分数量 14.6 压缩重建 14.7 使用PCA的建议 14.1 ...

  5. 第四章 多变量线性回归-机器学习老师板书-斯坦福吴恩达教授

    第四章 多变量线性回归 4.1 多功能 4.2 多变量的梯度下降 4.3 梯度下降实践一:特征缩放 4.4 梯度下降实践二:学习率 4.5 特征和多项式回归 4.6 正规方程(区别于迭代方法的直接求法 ...

  6. Coursera公开课笔记: 斯坦福大学机器学习第四课“多变量线性回归(Linear Regression with Multiple Variables)”

    Coursera公开课笔记: 斯坦福大学机器学习第四课"多变量线性回归(Linear Regression with Multiple Variables)" 斯坦福大学机器学习第 ...

  7. 机器学习理论《统计学习方法》学习笔记:第四章 朴素贝叶斯法

    机器学习理论<统计学习方法>学习笔记:第四章 朴素贝叶斯法 4 朴素贝叶斯法 4.1 朴素贝叶斯法的学习与分类 4.1.1 基本方法 4.1.2 后验概率最大化的含义 4.2 朴素贝叶斯法 ...

  8. 斯坦福大学机器学习第四课“逻辑回归(Logistic Regression)”

    斯坦福大学机器学习第四课"逻辑回归(Logistic Regression)" 本次课程主要包括7部分: 1) Classification(分类) 2) Hypothesis R ...

  9. 机器学习实战 基于_机器学习实战:基于Scikit-Learn和TensorFlow—第四章笔记

    机器学习实战:基于Scikit-Learn和TensorFlow---第四章笔记 一.学习目标 之前用了那么多的机器学习的模型,但是它们各自的训练算法在很大程度上还是一个黑匣子,我们对对系统内部的实现 ...

最新文章

  1. Linux踢出其他正在SSH登陆用户
  2. 重定向dup2的本质
  3. php文本数据库 搜索,一个文本数据库的搜索方法_php
  4. Java自动化测试框架-04 - TestNG之Test Method篇 - (详细教程)
  5. 并发设计模式之Master-Worker模式
  6. java pdf tiff_java-使用iText将TIFF转换为PDF的多线程方法
  7. 绘制神经网络工具汇总(重要)
  8. 火狐插件 打开html 死机,Firefox火狐Flash插件卡死问题完美解决方法
  9. 产品营销策划方案:6个创意来源
  10. UnityShader 简单护盾效果
  11. 阿里云IOT入门教程(三)阿里云IOT Studio自建手机App控制Wemos D1 Mini( ESP8266 )板载灯亮灭
  12. Unity之使物体透明化和还原
  13. 母亲产前压力、胎儿大脑连接和分娩时的胎龄之间的交互关系
  14. Excel数据透视表: GetPivotData
  15. 【本科生科研入门】如何整理个人大学生涯的成果?
  16. rabbitmq添加插件和配置文件的添加
  17. kafka性能测试、性能分析与性能调优
  18. JAVA大数据的第五十九天——The authenticity of host ‘gree129 (192.168.**.129)‘ can‘t be established.
  19. C++类成员函数作回调函数
  20. SPAMnet(AAAI2020) 立体图像SR+一致性保持 Stereoscopic Image Super-Resolution with Stereo Consistent Feature

热门文章

  1. 简单教你贴-iPhone新一代超薄卡贴
  2. 问题解决:“nginx: [emerg] unknown directive “ “ in /etc/nginx/conf.d/XXX.conf:122”
  3. 关于c语言学习的建议
  4. ClickHouse 数据插入、更新与删除操作 SQL
  5. 遍历字符串str1的所有非空子串
  6. 【软件监控神器】Procmon
  7. 嘘!市面上短视频(douyin)“去水印”的工具原来是这样实现的
  8. SQL练习题_ 查询每个部门工资最高的前两名的姓名和部门名称【多测师_何sir】
  9. 计量经济学笔记3-Eviews操作-多元线性回归
  10. vscode文件图标消失