title: 机器学习:逻辑回归(logistics regression)
date: 2019-11-30 20:55:06
mathjax: true
categories:

  • 机器学习
    tags:
  • 机器学习

第5章 Logistic回归

Logistic 回归 概述

Logistic 回归 或者叫逻辑回归 虽然名字有回归,但是它是用来做分类的。其主要思想是: 根据现有数据对分类边界线(Decision Boundary)建立回归公式,以此进行分类。

须知概念

Sigmoid 函数

回归 概念

假设现在有一些数据点,我们用一条直线对这些点进行拟合(这条直线称为最佳拟合直线),这个拟合的过程就叫做回归。进而可以得到对这些点的拟合直线方程,那么我们根据这个回归方程,怎么进行分类呢?请看下面。

二值型输出分类函数

我们想要的函数应该是: 能接受所有的输入然后预测出类别。例如,在两个类的情况下,上述函数输出 0 或 1.或许你之前接触过具有这种性质的函数,该函数称为 海维塞得阶跃函数(Heaviside step function),或者直接称为 单位阶跃函数。然而,海维塞得阶跃函数的问题在于: 该函数在跳跃点上从 0 瞬间跳跃到 1,这个瞬间跳跃过程有时很难处理。幸好,另一个函数也有类似的性质(可以输出 0 或者 1 的性质),且数学上更易处理,这就是 Sigmoid 函数。 Sigmoid 函数具体的计算公式如下:

下图给出了 Sigmoid 函数在不同坐标尺度下的两条曲线图。当 x 为 0 时,Sigmoid 函数值为 0.5 。随着 x 的增大,对应的 Sigmoid 值将逼近于 1 ; 而随着 x 的减小, Sigmoid 值将逼近于 0 。如果横坐标刻度足够大, Sigmoid 函数看起来很像一个阶跃函数。

因此,为了实现 Logistic 回归分类器,我们可以在每个特征上都乘以一个回归系数(如下公式所示),然后把所有结果值相加,将这个总和代入 Sigmoid 函数中,进而得到一个范围在 0~1 之间的数值。任何大于 0.5 的数据被分入 1 类,小于 0.5 即被归入 0 类。所以,Logistic 回归也是一种概率估计,比如这里Sigmoid 函数得出的值为0.5,可以理解为给定数据和参数,数据被分入 1 类的概率为0.5

基于最优化方法的回归系数确定

Sigmoid 函数的输入记为 z ,由下面公式得到:

成 z=wTxz=w^Txz=wTx,它表示将这两个数值向量对应元素相乘然后全部加起来即得到 z 值。其中的向量 x 是分类器的输入数据,向量 w 也就是我们要找到的最佳参数(系数),从而使得分类器尽可能地精确。为了寻找该最佳参数,需要用到最优化理论的一些知识。我们这里使用的是——梯度上升法(Gradient Ascent)。

梯度上升法

梯度的介绍

需要一点点向量方面的数学知识

向量 = 值 + 方向
梯度 = 向量
梯度 = 梯度值 + 梯度方向

梯度上升法的思想

要找到某函数的最大值,最好的方法是沿着该函数的梯度方向探寻。如果梯度记为 ▽ ,则函数 f(x, y) 的梯度由下式表示:

这个梯度意味着要沿 x 的方向移动 αf(x,y)αx\frac{\alpha f(x,y)}{\alpha x}αxαf(x,y)​,沿 y 的方向移动 αf(x,y)αy\frac{\alpha f(x,y)}{\alpha y}αyαf(x,y)​。其中,函数f(x, y) 必须要在待计算的点上有定义并且可微。下图是一个具体的例子。

上升算法到达每个点后都会重新估计移动的方向。从 P0 开始,计算完该点的梯度,函数就根据梯度移动到下一点 P1。在 P1 点,梯度再次被重新计算,并沿着新的梯度方向移动到 P2 。如此循环迭代,直到满足停止条件。迭代过程中,梯度算子总是保证我们能选取到最佳的移动方向。

上图中的梯度上升算法沿梯度方向移动了一步。可以看到,梯度算子总是指向函数值增长最快的方向。这里所说的是移动方向,而未提到移动量的大小。该量值称为步长,记作 α 。用向量来表示的话,梯度上升算法的迭代公式如下:

该公式将一直被迭代执行,直至达到某个停止条件为止,比如迭代次数达到某个指定值或者算法达到某个可以允许的误差范围。

介绍一下几个相关的概念:

例如:y = w0 + w1x1 + w2x2 + ... + wnxn
梯度:参考上图的例子,二维图像,x方向代表第一个系数,也就是 w1,y方向代表第二个系数也就是 w2,这样的向量就是梯度。
α:上面的梯度算法的迭代公式中的阿尔法,这个代表的是移动步长(step length)。移动步长会影响最终结果的拟合程度,最好的方法就是随着迭代次数更改移动步长。
步长通俗的理解,100米,如果我一步走10米,我需要走10步;如果一步走20米,我只需要走5步。这里的一步走多少米就是步长的意思。
▽f(w):代表沿着梯度变化的方向。

问:有人会好奇为什么有些书籍上说的是梯度下降法(Gradient Decent)?

答: 其实这个两个方法在此情况下本质上是相同的。关键在于代价函数(cost function)或者叫目标函数(objective function)。如果目标函数是损失函数,那就是最小化损失函数来求函数的最小值,就用梯度下降。 如果目标函数是似然函数(Likelihood function),就是要最大化似然函数来求函数的最大值,那就用梯度上升。在逻辑回归中, 损失函数和似然函数无非就是互为正负关系。

只需要在迭代公式中的加法变成减法。因此,对应的公式可以写成

局部最优现象 (Local Optima)

上图表示参数 θ 与误差函数 J(θ) 的关系图 (这里的误差函数是损失函数,所以我们要最小化损失函数),红色的部分是表示 J(θ) 有着比较高的取值,我们需要的是,能够让 J(θ) 的值尽量的低。也就是深蓝色的部分。θ0,θ1 表示 θ 向量的两个维度(此处的θ0,θ1是x0和x1的系数,也对应的是上文w0和w1)。

可能梯度下降的最终点并非是全局最小点,可能是一个局部最小点,如我们上图中的右边的梯度下降曲线,描述的是最终到达一个局部最小点,这是我们重新选择了一个初始点得到的。

看来我们这个算法将会在很大的程度上被初始点的选择影响而陷入局部最小点。

Logistic 回归 原理

Logistic 回归 工作原理

每个回归系数初始化为 1
重复 R 次:计算整个数据集的梯度使用 步长 x 梯度 更新回归系数的向量
返回回归系数

Logistic 回归 开发流程

收集数据: 采用任意方法收集数据
准备数据: 由于需要进行距离计算,因此要求数据类型为数值型。另外,结构化数据格式则最佳。
分析数据: 采用任意方法对数据进行分析。
训练算法: 大部分时间将用于训练,训练的目的是为了找到最佳的分类回归系数。
测试算法: 一旦训练步骤完成,分类将会很快。
使用算法: 首先,我们需要输入一些数据,并将其转换成对应的结构化数值;接着,基于训练好的回归系数就可以对这些数值进行简单的回归计算,判定它们属于哪个类别;在这之后,我们就可以在输出的类别上做一些其他分析工作。

Logistic 回归 算法特点

优点: 计算代价不高,易于理解和实现。
缺点: 容易欠拟合,分类精度可能不高。
适用数据类型: 数值型和标称型数据。

项目案例1: 使用 Logistic 回归在简单数据集上的分类

项目概述

在一个简单的数据集上,采用梯度上升法找到 Logistic 回归分类器在此数据集上的最佳回归系数

开发流程

收集数据: 可以使用任何方法
准备数据: 由于需要进行距离计算,因此要求数据类型为数值型。另外,结构化数据格式则最佳
分析数据: 画出决策边界
训练算法: 使用梯度上升找到最佳参数
测试算法: 使用 Logistic 回归进行分类
使用算法: 对简单数据集中数据进行分类

收集数据: 可以使用任何方法

我们采用存储在 TestSet.txt 文本文件中的数据,存储格式如下:

-0.017612    14.053064   0
-1.395634   4.662541    1
-0.752157   6.538620    0
-1.322371   7.152853    0
0.423363    11.054677   0

绘制在图中,如下图所示:

准备数据: 由于需要进行距离计算,因此要求数据类型为数值型。另外,结构化数据格式则最佳

def load_data_set():"""加载数据集:return:返回两个数组,普通数组 data_arr -- 原始数据的特征label_arr -- 原始数据的标签,也就是每条样本对应的类别"""data_arr = []label_arr = []f = open('data/5.Logistic/TestSet.txt', 'r')for line in f.readlines():line_arr = line.strip().split()# 为了方便计算,我们将 X0 的值设为 1.0 ,也就是在每一行的开头添加一个 1.0 作为 X0data_arr.append([1.0, np.float(line_arr[0]), np.float(line_arr[1])])label_arr.append(int(line_arr[2]))return data_arr, label_arr

分析数据: 采用任意方法对数据进行分析,此处不需要

训练算法: 使用梯度上升找到最佳参数

定义sigmoid阶跃函数

# sigmoid阶跃函数
def sigmoid(x):# 这里其实非常有必要解释一下,会出现的错误 RuntimeWarning: overflow encountered in exp# 这个错误在学习阶段虽然可以忽略,但是我们至少应该知道为什么# 这里是因为我们输入的有的 x 实在是太小了,比如 -6000之类的,那么计算一个数字 np.exp(6000)这个结果太大了,没法表示,所以就溢出了# 如果是计算 np.exp(-6000),这样虽然也会溢出,但是这是下溢,就是表示成零# 去网上搜了很多方法,比如 使用bigfloat这个库(我竟然没有安装成功,就不尝试了,反正应该是有用的return 1.0 / (1 + np.exp(-x))

Logistic 回归梯度上升优化算法

# 正常的处理方案
# 两个参数:第一个参数==> dataMatIn 是一个2维NumPy数组,每列分别代表每个不同的特征,每行则代表每个训练样本。
# 第二个参数==> classLabels 是类别标签,它是一个 1*100 的行向量。为了便于矩阵计算,需要将该行向量转换为列向量,做法是将原向量转置,再将它赋值给labelMat。
def grad_ascent(data_arr, class_labels):"""梯度上升法,其实就是因为使用了极大似然估计,这个大家有必要去看推导,只看代码感觉不太够:param data_arr: 传入的就是一个普通的数组,当然你传入一个二维的ndarray也行:param class_labels: class_labels 是类别标签,它是一个 1*100 的行向量。为了便于矩阵计算,需要将该行向量转换为列向量,做法是将原向量转置,再将它赋值给label_mat:return: """# 注意一下,我把原来 data_mat_in 改成data_arr,因为传进来的是一个数组,用这个比较不容易搞混# turn the data_arr to numpy matrixdata_mat = np.mat(data_arr)# 变成矩阵之后进行转置label_mat = np.mat(class_labels).transpose()# m->数据量,样本数 n->特征数m, n = np.shape(data_mat)# 学习率,learning ratealpha = 0.001# 最大迭代次数,假装迭代这么多次就能收敛2333max_cycles = 500# 生成一个长度和特征数相同的矩阵,此处n为3 -> [[1],[1],[1]]# weights 代表回归系数, 此处的 ones((n,1)) 创建一个长度和特征数相同的矩阵,其中的数全部都是 1weights = np.ones((n, 1))for k in range(max_cycles):# 这里是点乘  m x 3 dot 3 x 1h = sigmoid(data_mat * weights)error = label_mat - h# 这里比较建议看一下推导,为什么这么做可以,这里已经是求导之后的weights = weights + alpha * data_mat.transpose() * errorreturn weights

大家看到这儿可能会有一些疑惑,就是,我们在迭代中更新我们的回归系数,后边的部分是怎么计算出来的?为什么会是 alpha * dataMatrix.transpose() * error ?因为这就是我们所求的梯度,也就是对 f(w) 对 w 求一阶导数。具体推导如下:可参考http://blog.csdn.net/achuo/article/details/51160101

画出数据集和 Logistic 回归最佳拟合直线的函数

def plot_best_fit(weights):"""可视化:param weights: :return: """import matplotlib.pyplot as pltdata_mat, label_mat = load_data_set()data_arr = np.array(data_mat)n = np.shape(data_mat)[0]x_cord1 = []y_cord1 = []x_cord2 = []y_cord2 = []for i in range(n):if int(label_mat[i]) == 1:x_cord1.append(data_arr[i, 1])y_cord1.append(data_arr[i, 2])else:x_cord2.append(data_arr[i, 1])y_cord2.append(data_arr[i, 2])fig = plt.figure()ax = fig.add_subplot(111)ax.scatter(x_cord1, y_cord1, s=30, color='k', marker='^')ax.scatter(x_cord2, y_cord2, s=30, color='red', marker='s')x = np.arange(-3.0, 3.0, 0.1)y = (-weights[0] - weights[1] * x) / weights[2]"""y的由来,卧槽,是不是没看懂?首先理论上是这个样子的。dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])])w0*x0+w1*x1+w2*x2=f(x)x0最开始就设置为1叻, x2就是我们画图的y值,而f(x)被我们磨合误差给算到w0,w1,w2身上去了所以: w0+w1*x+w2*y=0 => y = (-w0-w1*x)/w2   """ax.plot(x, y)plt.xlabel('x1')plt.ylabel('y1')plt.show()

测试算法: 使用 Logistic 回归进行分类

def test():"""这个函数只要就是对上面的几个算法的测试,这样就不用每次都在power shell 里面操作,不然麻烦死了:return: """data_arr, class_labels = load_data_set()# 注意,这里的grad_ascent返回的是一个 matrix, 所以要使用getA方法变成ndarray类型# weights = grad_ascent(data_arr, class_labels).getA()# weights = stoc_grad_ascent0(np.array(data_arr), class_labels)weights = stoc_grad_ascent1(np.array(data_arr), class_labels)plot_best_fit(weights)

使用算法: 对简单数据集中数据进行分类

注意

梯度上升算法在每次更新回归系数时都需要遍历整个数据集,该方法在处理 100 个左右的数据集时尚可,但如果有数十亿样本和成千上万的特征,那么该方法的计算复杂度就太高了。一种改进方法是一次仅用一个样本点来更新回归系数,该方法称为 随机梯度上升算法。由于可以在新样本到来时对分类器进行增量式更新,因而随机梯度上升算法是一个在线学习(online learning)算法。与 “在线学习” 相对应,一次处理所有数据被称作是 “批处理” (batch) 。

随机梯度上升算法可以写成如下的伪代码:

所有回归系数初始化为 1
对数据集中每个样本计算该样本的梯度使用 alpha x gradient 更新回归系数值
返回回归系数值

以下是随机梯度上升算法的实现代码:

def stoc_grad_ascent0(data_mat, class_labels):"""随机梯度上升,只使用一个样本点来更新回归系数:param data_mat: 输入数据的数据特征(除去最后一列),ndarray:param class_labels: 输入数据的类别标签(最后一列数据):return: 得到的最佳回归系数"""m, n = np.shape(data_mat)alpha = 0.01weights = np.ones(n)for i in range(m):# sum(data_mat[i]*weights)为了求 f(x)的值, f(x)=a1*x1+b2*x2+..+nn*xn,# 此处求出的 h 是一个具体的数值,而不是一个矩阵h = sigmoid(sum(data_mat[i] * weights))error = class_labels[i] - h# 还是和上面一样,这个先去看推导,再写程序weights = weights + alpha * error * data_mat[i]return weights

可以看到,随机梯度上升算法与梯度上升算法在代码上很相似,但也有一些区别: 第一,后者的变量 h 和误差 error 都是向量,而前者则全是数值;第二,前者没有矩阵的转换过程,所有变量的数据类型都是 NumPy 数组。

判断优化算法优劣的可靠方法是看它是否收敛,也就是说参数是否达到了稳定值,是否还会不断地变化?下图展示了随机梯度上升算法在 200 次迭代过程中回归系数的变化情况。其中的系数2,也就是 X2 只经过了 50 次迭代就达到了稳定值,但系数 1 和 0 则需要更多次的迭代。如下图所示:

针对这个问题,我们改进了之前的随机梯度上升算法,如下:

def stoc_grad_ascent1(data_mat, class_labels, num_iter=150):"""改进版的随机梯度上升,使用随机的一个样本来更新回归系数:param data_mat: 输入数据的数据特征(除去最后一列),ndarray:param class_labels: 输入数据的类别标签(最后一列数据:param num_iter: 迭代次数:return: 得到的最佳回归系数"""m, n = np.shape(data_mat)weights = np.ones(n)for j in range(num_iter):# 这里必须要用list,不然后面的del没法使用data_index = list(range(m))for i in range(m):# i和j的不断增大,导致alpha的值不断减少,但是不为0alpha = 4 / (1.0 + j + i) + 0.01# 随机产生一个 0~len()之间的一个值# random.uniform(x, y) 方法将随机生成下一个实数,它在[x,y]范围内,x是这个范围内的最小值,y是这个范围内的最大值。rand_index = int(np.random.uniform(0, len(data_index)))h = sigmoid(np.sum(data_mat[data_index[rand_index]] * weights))error = class_labels[data_index[rand_index]] - hweights = weights + alpha * error * data_mat[data_index[rand_index]]del(data_index[rand_index])return weights

上面的改进版随机梯度上升算法,我们修改了两处代码。

第一处改进为 alpha 的值。alpha 在每次迭代的时候都会调整,这回缓解上面波动图的数据波动或者高频波动。另外,虽然 alpha 会随着迭代次数不断减少,但永远不会减小到 0,因为我们在计算公式中添加了一个常数项。

第二处修改为 randIndex 更新,这里通过随机选取样本拉来更新回归系数。这种方法将减少周期性的波动。这种方法每次随机从列表中选出一个值,然后从列表中删掉该值(再进行下一次迭代)。

程序运行之后能看到类似于下图的结果图。

项目案例2: 从疝气病症预测病马的死亡率

项目概述

使用 Logistic 回归来预测患有疝病的马的存活问题。疝病是描述马胃肠痛的术语。然而,这种病不一定源自马的胃肠问题,其他问题也可能引发马疝病。这个数据集中包含了医院检测马疝病的一些指标,有的指标比较主观,有的指标难以测量,例如马的疼痛级别。

开发流程

收集数据: 给定数据文件
准备数据: 用 Python 解析文本文件并填充缺失值
分析数据: 可视化并观察数据
训练算法: 使用优化算法,找到最佳的系数
测试算法: 为了量化回归的效果,需要观察错误率。根据错误率决定是否回退到训练阶段,通过改变迭代的次数和步长的参数来得到更好的回归系数
使用算法: 实现一个简单的命令行程序来收集马的症状并输出预测结果并非难事,这可以作为留给大家的一道习题

收集数据: 给定数据文件

病马的训练数据已经给出来了,如下形式存储在文本文件中:

1.000000 1.000000    39.200000   88.000000   20.000000   0.000000    0.000000    4.000000    1.000000    3.000000    4.000000    2.000000    0.000000    0.000000    0.000000    4.000000    2.000000    50.000000   85.000000   2.000000    2.000000    0.000000
2.000000    1.000000    38.300000   40.000000   24.000000   1.000000    1.000000    3.000000    1.000000    3.000000    3.000000    1.000000    0.000000    0.000000    0.000000    1.000000    1.000000    33.000000   6.700000    0.000000    0.000000    1.000000

准备数据: 用 Python 解析文本文件并填充缺失值

处理数据中的缺失值

假设有100个样本和20个特征,这些数据都是机器收集回来的。若机器上的某个传感器损坏导致一个特征无效时该怎么办?此时是否要扔掉整个数据?这种情况下,另外19个特征怎么办? 它们是否还可以用?答案是肯定的。因为有时候数据相当昂贵,扔掉和重新获取都是不可取的,所以必须采用一些方法来解决这个问题。

下面给出了一些可选的做法:

  • 使用可用特征的均值来填补缺失值;
  • 使用特殊值来填补缺失值,如 -1;
  • 忽略有缺失值的样本;
  • 使用有相似样本的均值添补缺失值;
  • 使用另外的机器学习算法预测缺失值。

现在,我们对下一节要用的数据集进行预处理,使其可以顺利地使用分类算法。在预处理需要做两件事:

  • 所有的缺失值必须用一个实数值来替换,因为我们使用的 NumPy 数据类型不允许包含缺失值。我们这里选择实数 0 来替换所有缺失值,恰好能适用于 Logistic 回归。这样做的直觉在于,我们需要的是一个在更新时不会影响系数的值。回归系数的更新公式如下:

    weights = weights + alpha * error * dataMatrix[dataIndex[randIndex]]

    如果 dataMatrix 的某个特征对应值为 0,那么该特征的系数将不做更新,即:

    weights = weights

    另外,由于 Sigmoid(0) = 0.5 ,即它对结果的预测不具有任何倾向性,因此我们上述做法也不会对误差造成任何影响。基于上述原因,将缺失值用 0 代替既可以保留现有数据,也不需要对优化算法进行修改。此外,该数据集中的特征取值一般不为 0,因此在某种意义上说它也满足 “特殊值” 这个要求。

  • 如果在测试数据集中发现了一条数据的类别标签已经缺失,那么我们的简单做法是将该条数据丢弃。这是因为类别标签与特征不同,很难确定采用某个合适的值来替换。采用 Logistic 回归进行分类时这种做法是合理的,而如果采用类似 kNN 的方法,则保留该条数据显得更加合理。

原始的数据集经过预处理后,保存成两个文件: horseColicTest.txt 和 horseColicTraining.txt 。

分析数据: 可视化并观察数据

将数据使用 MatPlotlib 打印出来,观察数据是否是我们想要的格式

训练算法: 使用优化算法,找到最佳的系数

下面给出 原始的梯度上升算法,随机梯度上升算法,改进版随机梯度上升算法 的代码:

def grad_ascent(data_arr, class_labels):"""梯度上升法,其实就是因为使用了极大似然估计,这个大家有必要去看推导,只看代码感觉不太够:param data_arr: 传入的就是一个普通的数组,当然你传入一个二维的ndarray也行:param class_labels: class_labels 是类别标签,它是一个 1*100 的行向量。为了便于矩阵计算,需要将该行向量转换为列向量,做法是将原向量转置,再将它赋值给label_mat:return: """# 注意一下,我把原来 data_mat_in 改成data_arr,因为传进来的是一个数组,用这个比较不容易搞混# turn the data_arr to numpy matrixdata_mat = np.mat(data_arr)# 变成矩阵之后进行转置label_mat = np.mat(class_labels).transpose()# m->数据量,样本数 n->特征数m, n = np.shape(data_mat)# 学习率,learning ratealpha = 0.001# 最大迭代次数,假装迭代这么多次就能收敛2333max_cycles = 500# 生成一个长度和特征数相同的矩阵,此处n为3 -> [[1],[1],[1]]# weights 代表回归系数, 此处的 ones((n,1)) 创建一个长度和特征数相同的矩阵,其中的数全部都是 1weights = np.ones((n, 1))for k in range(max_cycles):# 这里是点乘  m x 3 dot 3 x 1h = sigmoid(data_mat * weights)error = label_mat - h# 这里比较建议看一下推导,为什么这么做可以,这里已经是求导之后的weights = weights + alpha * data_mat.transpose() * errorreturn weights

测试算法: 为了量化回归的效果,需要观察错误率。根据错误率决定是否回退到训练阶段,通过改变迭代的次数和步长的参数来得到更好的回归系数

Logistic 回归分类函数

def classify_vector(in_x, weights):"""最终的分类函数,根据回归系数和特征向量来计算 Sigmoid 的值,大于0.5函数返回1,否则返回0:param in_x: 特征向量,features:param weights: 根据梯度下降/随机梯度下降 计算得到的回归系数:return: """# print(np.sum(in_x * weights))prob = sigmoid(np.sum(in_x * weights))if prob > 0.5:return 1.0return 0.0def colic_test():"""打开测试集和训练集,并对数据进行格式化处理,其实最主要的的部分,比如缺失值的补充(真的需要学会的),人家已经做了:return: """f_train = open('data/5.Logistic/HorseColicTraining.txt', 'r')f_test = open('data/5.Logistic/HorseColicTest.txt', 'r')training_set = []training_labels = []# 解析训练数据集中的数据特征和Labels# trainingSet 中存储训练数据集的特征,trainingLabels 存储训练数据集的样本对应的分类标签for line in f_train.readlines():curr_line = line.strip().split('\t')if len(curr_line) == 1:continue    # 这里如果就一个空的元素,则跳过本次循环line_arr = [float(curr_line[i]) for i in range(21)]training_set.append(line_arr)training_labels.append(float(curr_line[21]))# 使用 改进后的 随机梯度下降算法 求得在此数据集上的最佳回归系数 trainWeightstrain_weights = stoc_grad_ascent1(np.array(training_set), training_labels, 500)error_count = 0num_test_vec = 0.0# 读取 测试数据集 进行测试,计算分类错误的样本条数和最终的错误率for line in f_test.readlines():num_test_vec += 1curr_line = line.strip().split('\t')if len(curr_line) == 1: continue    # 这里如果就一个空的元素,则跳过本次循环line_arr = [float(curr_line[i]) for i in range(21)]if int(classify_vector(np.array(line_arr), train_weights)) != int(curr_line[21]):error_count += 1error_rate = error_count / num_test_vecprint('the error rate is {}'.format(error_rate))return error_ratedef multi_test():"""调用 colicTest() 10次并求结果的平均值:return: nothing """num_tests = 10error_sum = 0for k in range(num_tests):error_sum += colic_test()print('after {} iteration the average error rate is {}'.format(num_tests, error_sum / num_tests))

使用算法: 实现一个简单的命令行程序来收集马的症状并输出预测结果并非难事,这可以作为留给大家的一道习题

额外内容(可选读)

在上文中,当Sigmoid函数大于 0.5 的数据被分入 1 类,小于 0.5 即被归入 0 类。其实0.5也是可以改动的。 比如大于 0.9 的数据被分入 1 类,小于 0.9 即被归入 0 类。

Logistic回归 和 最大熵模型

Logistic回归和最大熵模型 都属于对数线性模型 (log linear model)。 当类标签(class label)只有两个的时候,最大熵模型就是 logistic 回归模型。 学习它们的模型一般采用极大似然估计或者正则化的极大似然估计。Logistic 回归和最大熵模型学习可以形式化为无约束最优化问题。(关于最大熵模型,可以阅读《统计学习方法》 第六章。)

其他算法

除了梯度下降,随机梯度下降,还有Conjugate Gradient,BFGS,L-BFGS,他们不需要指定alpha值(步长),而且比梯度下降更快,在现实中应用的也比较多。 当然这些算法相比随机梯度要复杂。

综上这些算法都有一个共通的缺点就是他们都是不断去逼近真实值,永远只是一个真实值的近似值而已。

多标签分类

逻辑回归也可以用作于多标签分类。 思路如下:

假设我们标签A中有a0,a1,a2…an个标签,对于每个标签 ai (ai 是标签A之一),我们训练一个逻辑回归分类器。

即,训练该标签的逻辑回归分类器的时候,将ai看作一类标签,非ai的所有标签看作一类标签。那么相当于整个数据集里面只有两类标签:ai 和其他。

剩下步骤就跟我们训练正常的逻辑回归分类器一样了。

测试数据的时候,将查询点套用在每个逻辑回归分类器中的Sigmoid 函数,取值最高的对应标签为查询点的标签。

机器学习:逻辑回归(logistics regression)相关推荐

  1. 高斯分布Gaussian distribution、线性回归、逻辑回归logistics regression

    高斯分布Gaussian distribution/正态分布Normal distribution 1.广泛的存在 2020年11月24日,探月工程嫦娥五号探测器发射成功.其运转轨道至关重要,根据开普 ...

  2. 复盘:手推LR(逻辑回归logistics regression),它和线性回归linear regression的区别是啥

    复盘:手推LR(逻辑回归logistics regression),它和线性回归linear regression的区别是啥? 提示:系列被面试官问的问题,我自己当时不会,所以下来自己复盘一下,认真学 ...

  3. 机器学习必备算法之(一)逻辑回归(logistics regression)及Python实现

    笔者为数学系的一个小白,最近系统的在复习机器学习以及一些深度学习的内容,准备开个博记录一下这个有趣又痛苦的过程~hiahiahia,主要记录机器学习的几大经典算法的理论以及Python的实现.非计算机 ...

  4. 吴恩达机器学习 -- 逻辑回归(Logistic Regression)

    7.1  分类问题 如果要预测的变量 是离散值,此时我们应用 logistics regression. 在分类问题中,我们对某一事物进行分类,有二分类和多分类问题.此节先讨论二分类问题,即只有两个分 ...

  5. 逻辑回归三部曲——逻辑回归(logistics regression)原理-让你彻底读懂逻辑回归

         逻辑回归已经在各大银行和公司都实际运用于业务,已经有很多前辈写过逻辑回归.本文将从我实际应用的角度阐述逻辑回归原理,致力于让逻辑回归变得清晰.易懂.逻辑回归又叫对数几率回归,是一种广义的线性 ...

  6. Python遇见机器学习 ---- 逻辑回归 Logistic Regression

    综述 "子非鱼,焉知鱼之乐" 本文采用编译器:jupyter 逻辑回归方法是从线性回归方法发展过来的,通常解决的是分类问题,读者或许有这样一个疑问:既然是回归算法又么解决分类问题的 ...

  7. Coursera公开课笔记: 斯坦福大学机器学习第六课“逻辑回归(Logistic Regression)”

    Coursera公开课笔记: 斯坦福大学机器学习第六课"逻辑回归(Logistic Regression)" 斯坦福大学机器学习第六课"逻辑回归"学习笔记,本次 ...

  8. 斯坦福大学机器学习第四课“逻辑回归(Logistic Regression)”

    斯坦福大学机器学习第四课"逻辑回归(Logistic Regression)" 本次课程主要包括7部分: 1) Classification(分类) 2) Hypothesis R ...

  9. 机器学习笔记04:逻辑回归(Logistic regression)、分类(Classification)

    之前我们已经大概学习了用线性回归(Linear Regression)来解决一些预测问题,详见: 1.<机器学习笔记01:线性回归(Linear Regression)和梯度下降(Gradien ...

最新文章

  1. [转载] 管Q某犇借的手写堆
  2. webpack加载postcss,以及autoprefixer的loader
  3. 可实现自动设置尺寸的图片上传类
  4. 逆向工程核心原理学习笔记(二):字符串检索法查找main函数
  5. 解决 Unable to load native-hadoop library for your platform方法之一
  6. 前端学习(2578):Nuxt的核心原理
  7. 键盘发展简史:144年独孤求败的QWERT键盘
  8. PTA c语言 统计单词的长度
  9. 制作一键架设服务器,【教程】大话西游一键端制作装备物品教程(一键端搭建续)...
  10. 转载一下如何联系口语
  11. oki5530sc打印错误_四通OKI5530常见故障分析
  12. 腾讯QQ空间登录的方法实现方式与验证过程分析
  13. 手机网速测试软件排行榜,手机测网速软件,几款测速软件推荐
  14. 谷歌浏览器无法上网问题解决
  15. k8s学习-网络策略NetworkPolicy(概念、模版、创建、删除等)
  16. 1.2 信息安全标准与规范
  17. DOSBox+MASM搭建汇编环境
  18. TI Sitara系列AM64x核心板(双核ARM Cortex-A53)软硬件规格资料
  19. Tomcat基本使用以及项目部署。
  20. 为什么中国只有5%的景区暴利惊人?95%的景区却总是踩到陷阱!做文旅必须看懂此文!

热门文章

  1. 论语中的仁德思想和从学态度
  2. 解决方案|AttributeError: (module ‘scipy.sparse‘ has no attribute ‘coo_array‘)
  3. Python简要学习教程
  4. 项目——排队叫号系统设计
  5. 笨方法学Python 习题 42: 对象、类、以及从属关系
  6. python 批量excel导入到mysql中
  7. java工作日报管理系统_GitHub - LovebuildJ/book-manager: JavaWeb图书管理系统,简单易用功能强大,可拓展性高,集成主流框架...
  8. 阿里副总裁车品觉:无数据不成活
  9. Android 添加自定义系统属性
  10. Flutter——在Android平台上的启动流程浅析,2021Android常见面试题