机器学习基础(三)

机器学习系列(一)——基础概念及分类
机器学习系列(二)——分类及回归问题

文章目录

  • 机器学习基础(三)
    • 4. 代价函数
      • 4.1 为什么要使用代价函数
      • 4.2 目标函数的作用原理
      • 4.3 为什么目标函数是负的
      • 4.4 常见的目标函数
        • 4.4.1 **二次代价函数(quadratic cost)**:
        • 4.4.2 **交叉熵代价函数(cross-entropy)**:
        • 4.4.3**对数似然代价函数(log-likelihood cost)**:
    • 5. 损失函数
      • 5.1 什么是损失函数
      • 5.2 常见的损失函数
      • 5.3 逻辑回归为什么使用对数损失函数
      • 5.4 对数损失函数是如何度量损失的

在本文中着重介绍机器学习中的目标函数(Object Function)、代价函数,(Cost Function) 以及损失函数(Loss Function),神经网络中训练模型的过程就是优化代价函数的过程,**代价函数对每个参数的偏导数就是梯度下降中提到的梯度,防止过拟合时添加的正则化项也是加在代价函数后面的。**文章中对涉及到的一些数学概念(最大似然函数、交叉熵、最小二乘法)进行相应的阐述和辨析。

三者的定义如下:

  1. 损失函数(Loss Function )是定义在单个样本上的,算的是一个样本的误差。
  2. 代价函数(Cost Function )是定义在整个训练集上的,是所有样本误差的平均,也就是损失函数的平均。
  3. 目标函数(Object Function)定义为:最终需要优化的函数。等于经验风险+结构风险(也就是Cost Function + 正则化项)。
    关于目标函数和代价函数的区别还有一种通俗的区别
    目标函数是最大化或者最小化,而代价函数是最小化

4. 代价函数

4.1 为什么要使用代价函数

  1. 为了得到训练逻辑回归模型的参数,需要一个目标函数,通过训练目标函数来得到参数。
  2. 用于找到最优解的目的函数。

4.2 目标函数的作用原理

在回归问题中,通过目标函数来求解最优解,常用的是平方误差(最小二乘线性回归)代价函数。假设函数图像如图2-4所示,当参数发生变化时,假设函数状态也会随着变化。

想要拟合图中的离散点,我们需要尽可能找到最优的和来使这条直线更能代表所有数据。如何找到最优解呢,这就需要使用代价函数来求解,以平方误差代价函数为例,假设函数为。 ​ 平方误差代价函数的主要思想就是将实际数据给出的值与拟合出的线的对应值做差,求出拟合出的直线与实际的差距。在实际应用中,为了避免因个别极端数据产生的影响,采用类似方差再取二分之一的方式来减小个别数据的影响。因此,引出代价函数:
J ( θ 0 , θ 1 ) = 1 m ∑ i = 1 m ( h ( x ( i ) ) − y ( i ) ) 2 J(\theta_0, \theta_1) = \frac{1}{m}\sum_{i=1}^m(h(x^{(i)})-y^{(i)})^2 J(θ0​,θ1​)=m1​i=1∑m​(h(x(i))−y(i))2
最优解即为代价函数的最小值。如果是1个参数,代价函数一般通过二维曲线便可直观看出。如果是2个参数,代价函数通过三维图像可看出效果,参数越多,越复杂。 当参数为2个时,代价函数是三维图像。

4.3 为什么目标函数是负的

目标函数存在一个下界,在优化过程当中,如果优化算法能够使目标函数不断减小,根据单调有界准则(参见优化方法),这个优化算法就能证明是收敛有效的。 ​ 只要设计的目标函数有下界,基本上都可以,代价函数非负更为方便。

4.4 常见的目标函数

4.4.1 二次代价函数(quadratic cost)

J = 1 2 n ∑ x ∥ y ( x ) − a L ( x ) ∥ 2 J = \frac{1}{2n}\sum_x\Vert y(x)-a^L(x)\Vert^2 J=2n1​x∑​∥y(x)−aL(x)∥2

​ 其中, J J J表示代价函数, x x x表示样本, y y y表示实际值, a a a表示输出值, n n n表示样本的总数。使用一个样本为例简单说明,此时二次代价函数为:
J = ( y − a ) 2 2 J = \frac{(y-a)^2}{2} J=2(y−a)2​
​ 假如使用梯度下降法(Gradient descent)来调整权值参数的大小,权值 w w w和偏置 b b b的梯度推导如下:
∂ J ∂ b = ( a − y ) σ ′ ( z ) \frac{\partial J}{\partial b}=(a-y)\sigma'(z) ∂b∂J​=(a−y)σ′(z)
∂ J ∂ w = ( a − y ) σ ′ ( z ) ∗ x \frac{\partial J}{\partial w}=(a-y)\sigma'(z)*x ∂w∂J​=(a−y)σ′(z)∗x
其中, z z z表示神经元的输入, a = σ ( z ) a=\sigma(z) a=σ(z)其中 z = w x + b z=wx+b z=wx+b, σ \sigma σ表示激活函数。权值 w w w和偏置 b b b的梯度跟激活函数的梯度成正比,激活函数的梯度越大,权值 w w w和偏置 b b b的大小调整得越快,训练收敛得就越快。

:神经网络常用的激活函数为sigmoid函数,该函数的曲线如下图2-6所示:

如上图所示,对0.88和0.98两个点进行比较:
​ 假设目标是收敛到1.0。0.88离目标1.0比较远,梯度比较大,权值调整比较大。0.98离目标1.0比较近,梯度比较小,权值调整比较小。调整方案合理。
​ 假如目标是收敛到0。0.88离目标0比较近,梯度比较大,权值调整比较大。0.98离目标0比较远,梯度比较小,权值调整比较小。调整方案不合理。
​ 原因:在使用sigmoid函数的情况下, 初始的代价(误差)越大,导致训练越慢。

4.4.2 交叉熵代价函数(cross-entropy)

公式的推导:从两个方面考虑
大佬的推导

  • 交叉熵的定义
  • 对数似然估计

J = − 1 n ∑ x [ y ln ⁡ a + ( 1 − y ) ln ⁡ ( 1 − a ) ] J = -\frac{1}{n}\sum_x[y\ln a + (1-y)\ln{(1-a)}] J=−n1​x∑​[ylna+(1−y)ln(1−a)]

其中, J J J表示代价函数, x x x表示样本, y y y表示实际值, a a a表示输出值, a = σ ( z ) a=\sigma(z) a=σ(z)其中 z = w x + b z=wx+b z=wx+b, n n n表示样本的总数。
权值 w w w和偏置 b b b的梯度推导如下:

最好自己手动推一下 加深对其的理解

用隐函数求导和链式求导法则得出:

推导公式时需要用到Sigmod函数一基本性质: / s i g m a /sigma /sigma函数导数的性质: σ ′ ( z ) = σ ( z ) ( 1 − σ ( z ) ) \sigma'(z)=\sigma(z)(1-\sigma(z)) σ′(z)=σ(z)(1−σ(z))
∂ J ∂ w j = 1 n ∑ x x j ( σ ( z ) − y ) , ∂ J ∂ b = 1 n ∑ x ( σ ( z ) − y ) \frac{\partial J}{\partial w_j}=\frac{1}{n}\sum_{x}x_j(\sigma{(z)}-y)\;, \frac{\partial J}{\partial b}=\frac{1}{n}\sum_{x}(\sigma{(z)}-y) ∂wj​∂J​=n1​x∑​xj​(σ(z)−y),∂b∂J​=n1​x∑​(σ(z)−y)

当误差越大时,梯度就越大,权值 w w w和偏置 b b b调整就越快,训练的速度也就越快。

​ 这是一个令人兴奋的表达式,优雅而富有深意。让我们注意一下这个式子中最为关键的一项σ(z)−y ,它其实是告诉我们学习的误差越大,你得到的导数值越大,曲线下降的越快,你的学习速度更快,网络收敛的更快。而且损失对于权重系数的偏导数只与误差有关,且激活函数的导数值无

二次代价函数适合输出神经元是线性的情况,交叉熵代价函数适合输出神经元是S型函数的情况。

4.4.3对数似然代价函数(log-likelihood cost)

对数似然函数常用来作为softmax回归的目标函数。深度学习中普遍的做法是将softmax作为最后一层,此时常用的代价函数是对数似然代价函数。
对数似然代价函数与softmax的组合和交叉熵与sigmoid函数的组合非常相似。对数似然代价函数在二分类时可以化简为交叉熵代价函数的形式
对于对数似然函数的推导:主要是Softmax函数的导数

在tensorflow中:
与sigmoid搭配使用的交叉熵函数:tf.nn.sigmoid_cross_entropy_with_logits()
与softmax搭配使用的交叉熵函数:tf.nn.softmax_cross_entropy_with_logits()
在pytorch中:
与sigmoid搭配使用的交叉熵函数:torch.nn.BCEWithLogitsLoss()
与softmax搭配使用的交叉熵函数:torch.nn.CrossEntropyLoss()

为什么用交叉熵代替二次代价函数
(1)为什么不用二次方代价函数
由上一节可知,权值 w w w和偏置 b b b的偏导数为 ∂ J ∂ w = ( a − y ) σ ′ ( z ) x \frac{\partial J}{\partial w}=(a-y)\sigma'(z)x ∂w∂J​=(a−y)σ′(z)x, ∂ J ∂ b = ( a − y ) σ ′ ( z ) \frac{\partial J}{\partial b}=(a-y)\sigma'(z) ∂b∂J​=(a−y)σ′(z), 偏导数受激活函数的导数影响,sigmoid函数导数在输出接近0和1时非常小,导数小,差值error也小,会导致一些实例在刚开始训练时学习得非常慢。
(2)为什么要用交叉熵
交叉熵函数权值 w w w和偏置 b b b的梯度推导为:
∂ J ∂ w j = 1 n ∑ x x j ( σ ( z ) − y ) , ∂ J ∂ b = 1 n ∑ x ( σ ( z ) − y ) \frac{\partial J}{\partial w_j}=\frac{1}{n}\sum_{x}x_j(\sigma{(z)}-y)\;, \frac{\partial J}{\partial b}=\frac{1}{n}\sum_{x}(\sigma{(z)}-y) ∂wj​∂J​=n1​x∑​xj​(σ(z)−y),∂b∂J​=n1​x∑​(σ(z)−y)
由以上公式可知,权重学习的速度受到 σ ( z ) − y \sigma{(z)}-y σ(z)−y影响,更大的误差,就有更快的学习速度,避免了二次代价函数方程中因 σ ′ ( z ) \sigma'{(z)} σ′(z)导致的学习缓慢的情况。

5. 损失函数

5.1 什么是损失函数

​ 损失函数(Loss Function)又叫做误差函数,用来衡量算法的运行情况,估量模型的预测值与真实值的不一致程度,是一个非负实值函数,通常使用$
L(Y, f(x))$来表示。损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。

经验风险函数和结构风险函数的解释,见下面章节代价函数 损失函数和目标函数的区别。

5.2 常见的损失函数

​ 机器学习通过对算法中的目标函数进行不断求解优化,得到最终想要的结果。分类和回归问题中,通常使用损失函数或代价函数作为目标函数。
​损失函数用来评价预测值和真实值不一样的程度。通常损失函数越好,模型的性能也越好。
​ 损失函数可分为经验风险损失函数和结构风险损失函数。经验风险损失函数指预测结果和实际结果的差别,结构风险损失函数是在经验风险损失函数上加上正则项
​ 下面介绍常用的损失函数:

(1)0-1损失函数
如果预测值和目标值相等,值为0,如果不相等,值为1。
L ( Y , f ( x ) ) = { 1 , Y ≠ f ( x ) 0 , Y = f ( x ) L(Y, f(x)) = \begin{cases} 1,& Y\ne f(x)\\ 0,& Y = f(x) \end{cases} L(Y,f(x))={1,0,​Y​=f(x)Y=f(x)​

一般的在实际使用中,相等的条件过于严格,可适当放宽条件:

L ( Y , f ( x ) ) = { 1 , ∣ Y − f ( x ) ∣ ⩾ T 0 , ∣ Y − f ( x ) ∣ < T L(Y, f(x)) = \begin{cases} 1,& |Y-f(x)|\geqslant T\\ 0,& |Y-f(x)|< T \end{cases} L(Y,f(x))={1,0,​∣Y−f(x)∣⩾T∣Y−f(x)∣<T​

(2)绝对值损失函数
和0-1损失函数相似,绝对值损失函数表示为:
L ( Y , f ( x ) ) = ∣ Y − f ( x ) ∣ ​ L(Y, f(x)) = |Y-f(x)|​ L(Y,f(x))=∣Y−f(x)∣​

(3)平方损失函数
L ( Y , f ( x ) ) = ∑ N ( Y − f ( x ) ) 2 L(Y, f(x)) = \sum_N{(Y-f(x))}^2 L(Y,f(x))=N∑​(Y−f(x))2

这点可从最小二乘法和欧几里得距离角度理解。最小二乘法的原理是,最优拟合曲线应该使所有点到回归直线的距离和最小。

(4)对数损失函数
L ( Y , P ( Y ∣ X ) ) = − log ⁡ P ( Y ∣ X ) L(Y, P(Y|X)) = -\log{P(Y|X)} L(Y,P(Y∣X))=−logP(Y∣X)

​ 常见的逻辑回归使用的就是对数损失函数,有很多人认为逻辑回归的损失函数是平方损失,其实不然。逻辑回归它假设样本服从伯努利分布(0-1分布),进而求得满足该分布的似然函数,接着取对数求极值等。逻辑回归推导出的经验风险函数是最小化负的似然函数,从损失函数的角度看,就是对数损失函数。

(6)指数损失函数
指数损失函数的标准形式为:
L ( Y , f ( x ) ) = exp ⁡ ( − Y f ( x ) ) L(Y, f(x)) = \exp(-Yf(x)) L(Y,f(x))=exp(−Yf(x))

例如AdaBoost就是以指数损失函数为损失函数。

(7)Hinge损失函数
Hinge损失函数的标准形式如下:
L ( y ) = max ⁡ ( 0 , 1 − t y ) L(y) = \max{(0, 1-ty)} L(y)=max(0,1−ty)

统一的形式:
L ( Y , f ( x ) ) = max ⁡ ( 0 , Y f ( x ) ) L(Y, f(x)) = \max{(0, Yf(x))} L(Y,f(x))=max(0,Yf(x))

其中y是预测值,范围为(-1,1),t为目标值,其为-1或1。

在线性支持向量机中,最优化问题可等价于

w , b min ⁡ ∑ i = 1 N ( 1 − y i ( w x i + b ) ) + λ ∥ w ∥ 2 \underset{\min}{w,b}\sum_{i=1}^N (1-y_i(wx_i+b))+\lambda\Vert w\Vert ^2 minw,b​i=1∑N​(1−yi​(wxi​+b))+λ∥w∥2

上式相似于下式

1 m ∑ i = 1 N l ( w x i + b y i ) + ∥ w ∥ 2 \frac{1}{m}\sum_{i=1}^{N}l(wx_i+by_i) + \Vert w\Vert ^2 m1​i=1∑N​l(wxi​+byi​)+∥w∥2

其中 l ( w x i + b y i ) l(wx_i+by_i) l(wxi​+byi​)是Hinge损失函数, ∥ w ∥ 2 \Vert w\Vert ^2 ∥w∥2可看做为正则化项。

5.3 逻辑回归为什么使用对数损失函数

  • 对于似然函数的理解:

    似然则用来描述已知随机变量输出结果时,未知参数的可能取值。似然函数的重要性不是它的具体取值,而是当参数变化时函数到底变小还是变大。对同一个似然函数,如果存在一个参数值,使得它的函数值达到最大的话,那么这个值就是最为“合理”的参数值。
    最大似然函数: 是指找出一个(θ)的组合,使得 L ( θ ) = L ( x 1 , x 2 , … , x n ; θ ) = Π P ( x i ; θ L(θ)=L(x1,x2,…,xn;θ)=ΠP(xi;θ L(θ)=L(x1,x2,…,xn;θ)=ΠP(xi;θ最大化,即使得样本数据出现的概率最大化
    似然函数取得最大值表示相应的参数能够使得统计模型最为合理
    从这样一个想法出发,最大似然估计的做法是:

  • 首先选取似然函数(一般是 概率密度函数或概率质量函数),

  • 整理之后求最大值。实际应用中一般会取似然函数的对数作为求最大值的函数,这样求出的最大值和直接求最大值得到的结果是相同的。

    统计学的观点始终是认为样本的出现是基于一个分布的。那么我们去假设这个分布为f,里面有参数theta。对于不同的theta,样本的分布不一样。f(x|θ)表示的就是在给定参数theta的情况下,x出现的可能性多大。L(θ|x)表示的是在给定样本x的时候,哪个参数theta使得x出现的可能性多大。

假设逻辑回归模型
P ( y = 1 ∣ x ; θ ) = 1 1 + e − θ T x P(y=1|x;\theta)=\frac{1}{1+e^{-\theta^{T}x}} P(y=1∣x;θ)=1+e−θTx1​
假设逻辑回归模型的概率分布是伯努利分布0-1两点分布,其概率质量函数为:
P ( X = n ) = { 1 − p , n = 0 p , n = 1 P(X=n)= \begin{cases} 1-p, n=0\\ p,n=1 \end{cases} P(X=n)={1−p,n=0p,n=1​
其似然函数为:
L ( θ ) = ∏ i = 1 m P ( y = 1 ∣ x i ) y i P ( y = 0 ∣ x i ) 1 − y i L(\theta)=\prod_{i=1}^{m} P(y=1|x_i)^{y_i}P(y=0|x_i)^{1-y_i} L(θ)=i=1∏m​P(y=1∣xi​)yi​P(y=0∣xi​)1−yi​
对数似然函数为:
ln ⁡ L ( θ ) = ∑ i = 1 m [ y i ln ⁡ P ( y = 1 ∣ x i ) + ( 1 − y i ) ln ⁡ P ( y = 0 ∣ x i ) ] = ∑ i = 1 m [ y i ln ⁡ P ( y = 1 ∣ x i ) + ( 1 − y i ) ln ⁡ ( 1 − P ( y = 1 ∣ x i ) ) ] \ln L(\theta)=\sum_{i=1}^{m}[y_i\ln{P(y=1|x_i)}+(1-y_i)\ln{P(y=0|x_i)}]\\ =\sum_{i=1}^m[y_i\ln{P(y=1|x_i)}+(1-y_i)\ln(1-P(y=1|x_i))] lnL(θ)=i=1∑m​[yi​lnP(y=1∣xi​)+(1−yi​)lnP(y=0∣xi​)]=i=1∑m​[yi​lnP(y=1∣xi​)+(1−yi​)ln(1−P(y=1∣xi​))]
对数函数在单个数据点上的定义为:
c o s t ( y , p ( y ∣ x ) ) = − y ln ⁡ p ( y ∣ x ) − ( 1 − y ) ln ⁡ ( 1 − p ( y ∣ x ) ) cost(y,p(y|x))=-y\ln{p(y|x)-(1-y)\ln(1-p(y|x))} cost(y,p(y∣x))=−ylnp(y∣x)−(1−y)ln(1−p(y∣x))
则全局样本损失函数为:
c o s t ( y , p ( y ∣ x ) ) = − ∑ i = 1 m [ y i ln ⁡ p ( y i ∣ x i ) + ( 1 − y i ) ln ⁡ ( 1 − p ( y i ∣ x i ) ) ] cost(y,p(y|x)) = -\sum_{i=1}^m[y_i\ln p(y_i|x_i)+(1-y_i)\ln(1-p(y_i|x_i))] cost(y,p(y∣x))=−i=1∑m​[yi​lnp(yi​∣xi​)+(1−yi​)ln(1−p(yi​∣xi​))]
由此可看出,**对数损失函数与极大似然估计的对数似然函数本质上是相同的。**所以逻辑回归直接采用对数损失函数。

5.4 对数损失函数是如何度量损失的

​ 例如,在高斯分布中,我们需要确定均值和标准差。
​ 如何确定这两个参数?最大似然估计是比较常用的方法。最大似然的目标是找到一些参数值,这些参数值对应的分布可以最大化观测到数据的概率。
​ 因为需要计算观测到所有数据的全概率,即所有观测到的数据点的联合概率。现考虑如下简化情况:

(1)假设观测到每个数据点的概率和其他数据点的概率是独立的。

(2)取自然对数。
假设观测到单个数据点 x i ( i = 1 , 2 , . . . n ) x_i(i=1,2,...n) xi​(i=1,2,...n)的概率为:(正态分布)
P ( x i ; μ , σ ) = 1 σ 2 π exp ⁡ ( − ( x i − μ ) 2 2 σ 2 ) P(x_i;\mu,\sigma)=\frac{1}{\sigma \sqrt{2\pi}}\exp \left( - \frac{(x_i-\mu)^2}{2\sigma^2} \right) P(xi​;μ,σ)=σ2π ​1​exp(−2σ2(xi​−μ)2​)

(3)其联合概率为:连乘取似然函数
P ( x 1 , x 2 , . . . , x n ; μ , σ ) = 1 σ 2 π exp ⁡ ( − ( x 1 − μ ) 2 2 σ 2 ) × 1 σ 2 π exp ⁡ ( − ( x 2 − μ ) 2 2 σ 2 ) × . . . × 1 σ 2 π exp ⁡ ( − ( x n − μ ) 2 2 σ 2 ) P(x_1,x_2,...,x_n;\mu,\sigma)=\frac{1}{\sigma \sqrt{2\pi}}\exp \left( - \frac{(x_1-\mu)^2}{2\sigma^2} \right) \\ \times \frac{1}{\sigma \sqrt{2\pi}}\exp \left( - \frac{(x_2-\mu)^2}{2\sigma^2} \right) \times ... \times \frac{1}{\sigma \sqrt{2\pi}}\exp \left( - \frac{(x_n-\mu)^2}{2\sigma^2} \right) P(x1​,x2​,...,xn​;μ,σ)=σ2π ​1​exp(−2σ2(x1​−μ)2​)×σ2π ​1​exp(−2σ2(x2​−μ)2​)×...×σ2π ​1​exp(−2σ2(xn​−μ)2​)
​ 对上式取自然对数,可得:
ln ⁡ ( P ( x 1 , x 2 , . . . x n ; μ , σ ) ) = ln ⁡ ( 1 σ 2 π ) − ( x 1 − μ ) 2 2 σ 2 + ln ⁡ ( 1 σ 2 π ) − ( x 2 − μ ) 2 2 σ 2 + . . . + ln ⁡ ( 1 σ 2 π ) − ( x n − μ ) 2 2 σ 2 \ln(P(x_1,x_2,...x_n;\mu,\sigma))= \ln \left(\frac{1}{\sigma \sqrt{2\pi}} \right) - \frac{(x_1-\mu)^2}{2\sigma^2} \\ + \ln \left( \frac{1}{\sigma \sqrt{2\pi}} \right) - \frac{(x_2-\mu)^2}{2\sigma^2} +...+ \ln \left( \frac{1}{\sigma \sqrt{2\pi}} \right) - \frac{(x_n-\mu)^2}{2\sigma^2} ln(P(x1​,x2​,...xn​;μ,σ))=ln(σ2π ​1​)−2σ2(x1​−μ)2​+ln(σ2π ​1​)−2σ2(x2​−μ)2​+...+ln(σ2π ​1​)−2σ2(xn​−μ)2​
根据对数定律,上式可以化简为:
ln ⁡ ( P ( x 1 , x 2 , . . . x n ; μ , σ ) ) = − n ln ⁡ ( σ ) − n 2 ln ⁡ ( 2 π ) − 1 2 σ 2 [ ( x 1 − μ ) 2 + ( x 2 − μ ) 2 + . . . + ( x n − μ ) 2 ] \ln(P(x_1,x_2,...x_n;\mu,\sigma))=-n\ln(\sigma)-\frac{n}{2} \ln(2\pi)\\ -\frac{1}{2\sigma^2}[(x_1-\mu)^2+(x_2-\mu)^2+...+(x_n-\mu)^2] ln(P(x1​,x2​,...xn​;μ,σ))=−nln(σ)−2n​ln(2π)−2σ21​[(x1​−μ)2+(x2​−μ)2+...+(xn​−μ)2]
然后求导为:
∂ ln ⁡ ( P ( x 1 , x 2 , . . . , x n ; μ , σ ) ) ∂ μ = n σ 2 [ μ − ( x 1 + x 2 + . . . + x n ) ] \frac{\partial\ln(P(x_1,x_2,...,x_n;\mu,\sigma))}{\partial\mu}= \frac{n}{\sigma^2}[\mu - (x_1+x_2+...+x_n)] ∂μ∂ln(P(x1​,x2​,...,xn​;μ,σ))​=σ2n​[μ−(x1​+x2​+...+xn​)]
​ 上式左半部分为对数损失函数。损失函数越小越好,因此我们令等式左半的对数损失函数为0,可得:
μ = x 1 + x 2 + . . . + x n n \mu=\frac{x_1+x_2+...+x_n}{n} μ=nx1​+x2​+...+xn​​
同理,可计算 σ \sigma σ。

机器学习系列(三)——目标函数、损失函数以及代价函数相关推荐

  1. 机器学习中常见的损失函数和代价函数

    损失函数 (loss function) 是用来估量在一个样本点上模型的预测值 h(x) 与真实值 y 的不一致程度.它是一个非负实值函数,通常使用 L(y, h(x)) 来表示. 损失函数可由 y  ...

  2. 机器学习中目标函数、损失函数、代价函数之间的区别和联系

    首先给出结论:损失函数和代价函数是同一个东西,目标函数是一个与他们相关但更广的概念,对于目标函数来说在有约束条件下的最小化就是损失函数(loss function) 举个例子解释一下:(图片来自And ...

  3. 机器学习中的目标函数、损失函数、代价函数有什么区别?

    作者:zzanswer 链接:https://www.zhihu.com/question/52398145/answer/209358209 来源:知乎 著作权归作者所有.商业转载请联系作者获得授权 ...

  4. 深入理解机器学习中的:目标函数,损失函数和代价函数

    参考知乎回答整理:https://www.zhihu.com/question/52398145 主要参考:https://www.zhihu.com/question/52398145/answer ...

  5. [机器学习] 深入理解 目标函数,损失函数和代价函数

    目标函数,损失函数和代价函数 基本概念: 损失函数:计算的是一个样本的误差 代价函数:是整个训练集上所有样本误差的平均 目标函数:代价函数 + 正则化项 通常机器学习每一个算法中都会有一个目标函数,算 ...

  6. 机器学习中的目标函数、损失函数、代价函数的区别

    转载自:https://www.zhihu.com/question/52398145 基本概念: 损失函数:计算的是一个样本的误差 代价函数:是整个训练集上所有样本误差的平均 目标函数:代价函数 + ...

  7. 机器学习之线性回归 损失函数、代价函数、目标函数

    损失函数(Loss Function)定义在单个样本上,算的是一个样本的误差.比如: 其中 0-1损失函数: 感知器损失函数: 平方和损失函数: 绝对损失函数: 对数损失函数: 代价函数(Cost F ...

  8. 损失函数、代价函数和目标函数的区别

    目录 一.概念 二.常见的代价函数 1.平方误差损失函数 2.Logit损失函数(Logistic 回归) 3.Hinge损失函数(SVM) 4. 指数损失函数 5.感知机损失函数(L1 margin ...

  9. 机器学习-白板推导系列(三十)-生成模型(Generative Model)

    机器学习-白板推导系列(三十)-生成模型(Generative Model) 30.1 生成模型的定义 前面所详细描述的模型以浅层的机器学习为主.本章将承上启下引出后面深度机器学习的部分.本小节,主要 ...

最新文章

  1. 解决阿里云无法正常使用samba的问题【转】
  2. DB2安装过程中可能遇到的错误
  3. 华为访问列表traffic-policy案例
  4. WordPress的cookie处理
  5. SDH光端机市场应用及发展趋势介绍
  6. 从零开始学习springBoot(Contextpath+修改默认idk)
  7. go语言如何实现继承
  8. 在Ubuntu中部署并测试Fabric 1.0 Beta
  9. Visual C#组件技巧之深入ComboBox美容
  10. centos7 java程序突然停止运行没有报错日志_CentOS7.5安装zookeeper3.4.10
  11. 相似图片搜索的原理(二)(转)
  12. Onvif协议学习:5、设备搜索
  13. IDEA如何设置资源目录
  14. 多媒体计算机技术2017年四月,自考软件工程:2017年10月07167多媒体计算机技术历年真题及答案...
  15. php+网络测速,网络测速步骤
  16. 深入剖析jsonp跨域原理
  17. 移动交互提示语设计(转)
  18. 求2+22+222+2222+.....的N项之和
  19. 一节计算机课日记,电脑课作文5篇
  20. Android面试整理

热门文章

  1. 炒期货赚钱吗?掌握技巧才有得赚
  2. Why does Markov Matrix contain eigenvalue=1 and eigenvalues less than or equa to1?
  3. 什么是Cookie和Session?—— Cookie和Session的区别?—— 一文教你理解清楚什么是Cookie和Session,以及常见的开发面试问题?
  4. Tarjan算法超详细讲解(割点割边强连通)
  5. gensim corpora的简单使用
  6. 【Linux】动态库与静态库
  7. 一篇文章带你理清宽带、带宽、网速、吞吐量与宽带上下行
  8. Android 连续点击屏幕(次数可定,事件可定)后进行操作
  9. Android Studio 4.1没有GsonFormat插件
  10. EWSTM8系列教程06_工程节点选项配置(一)