逻辑回归的介绍

逻辑回归(Logistic regression,简称LR)虽然其中带有"回归"两个字,但逻辑回归其实是一个分类模型,并且广泛应用于各个领域之中。虽然现在深度学习相对于这些传统方法更为火热,但实则这些传统方法由于其独特的优势依然广泛应用于各个领域中。

而对于逻辑回归而言,最为突出的两点就是其模型简单和模型的可解释性强。

逻辑回归模型的优劣势:

  • 优点:实现简单,易于理解和实现;计算代价不高,速度很快,存储资源低;

  • 缺点:容易欠拟合,分类精度可能不高

逻辑回归的应用

逻辑回归模型广泛用于各个领域,包括机器学习,大多数医学领域和社会科学。例如,最初由Boyd 等人开发的创伤和损伤严重度评分(TRISS)被广泛用于预测受伤患者的死亡率,使用逻辑回归 基于观察到的患者特征(年龄,性别,体重指数,各种血液检查的结果等)分析预测发生特定疾病(例如糖尿病,冠心病)的风险。逻辑回归模型也用于预测在给定的过程中,系统或产品的故障的可能性。还用于市场营销应用程序,例如预测客户购买产品或中止订购的倾向等。在经济学中它可以用来预测一个人选择进入劳动力市场的可能性,而商业应用则可以用来预测房主拖欠抵押贷款的可能性。条件随机字段是逻辑回归到顺序数据的扩展,用于自然语言处理。

逻辑回归模型现在同样是很多分类算法的基础组件,比如 分类任务中基于GBDT算法+LR逻辑回归实现的信用卡交易反欺诈,CTR(点击通过率)预估等,其好处在于输出值自然地落在0到1之间,并且有概率意义。模型清晰,有对应的概率学理论基础。它拟合出来的参数就代表了每一个特征(feature)对结果的影响。也是一个理解数据的好工具。但同时由于其本质上是一个线性的分类器,所以不能应对较为复杂的数据情况。很多时候我们也会拿逻辑回归模型去做一些任务尝试的基线(基础水平)。

逻辑回归原理简介

模型介绍

Logistic 回归的本质是:假设数据服从这个分布,然后使用极大似然估计做参数的估计。

Logistic 分布
Logistic 分布是一种连续型的概率分布,其分布函数和密度函数分别为:
F(x)=P(X≤x)=11+e−(x−μ)/γf(x)=F′(X≤x)=e−(x−μ)/γγ(1+e−(x−μ)/γ)2\begin{array}{c} F(x)=P(X \leq x)=\frac{1}{1+e^{-(x-\mu) / \gamma}} \\ f(x)=F^{\prime}(X \leq x)=\frac{e^{-(x-\mu) / \gamma}}{\gamma\left(1+e^{-(x-\mu) / \gamma}\right)^{2}} \end{array} F(x)=P(X≤x)=1+e−(x−μ)/γ1​f(x)=F′(X≤x)=γ(1+e−(x−μ)/γ)2e−(x−μ)/γ​​
其中, μ\quad \muμ 表示位置参数, γ>0\quad \gamma>0γ>0 为形状参数。我们可以看下其图像特征:



Logistic 分布是由其位置和尺度参数定义的连续分布。Logistic 分布的形状与正态分布的形状相 似, 但是 Logistic 分布的尾部更长, 所以我们可以使用 Logistic 分布来建模比正态分布具有更长 尾部和更高波峰的数据分布。在深度学习中常用到的 Sigmoid 函数就是 Logistic 的分布函数在 μ=0,γ=1\mu=0, \gamma=1μ=0,γ=1 的特殊形式。

Logistic 回归

之前说到 Logistic 回归主要用于分类问题,我们以二分类为例,对于所给数据集假设存在这样的一条直线可以将数据完成线性可分。

决策边界可以表示为 w1x1+w2x2+b=0,w_{1} x_{1}+w_{2} x_{2}+b=0,w1​x1​+w2​x2​+b=0, 假设某个样本点 hw(x)=w1x1+w2x2+b>0h_{w}(x)=w_{1} x_{1}+w_{2} x_{2}+b>0hw​(x)=w1​x1​+w2​x2​+b>0 那么可以判断它的类别为 1,1,1, 这个过程其实是感知机。
Logistic 回归还需要加一层,它要找到分类概率 P(Y=1) 与输入向量 x 的直接关系,然后通过比较 概率值来判断类别。
考虑二分类问题,给定数据集
D=(x1,y1),(x2,y2),⋯,(xN,yN),xi⊆Rn,yi∈0,1,i=1,2,⋯,ND=\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \cdots,\left(x_{N}, y_{N}\right), x_{i} \subseteq R^{n}, y_{i} \in 0,1, i=1,2, \cdots, N D=(x1​,y1​),(x2​,y2​),⋯,(xN​,yN​),xi​⊆Rn,yi​∈0,1,i=1,2,⋯,N
考虑到 wTx+bw^{T} x+bwTx+b 取值是连续的,因此它不能拟合离散变量。可以考虑用它来拟合条件概率 p(Y=1∣x),p(Y=1 \mid x),p(Y=1∣x), 因为概率的取值也是连续的。

但是对于 w≠0(w \neq 0 \quad(w​=0( 若等于零向量则没有什么求解的价值 ),wTx+b), \quad w^{T} x+b),wTx+b 取值为 R,R,R, 不符合概 率取值为 0 到 1,因此考虑采用广义线性模型。
最理想的是单位阶跃函数:
p(y=1∣x)={0,z<00.5,z=01,z>0,z=wTx+bp(y=1 \mid x)=\left\{\begin{array}{ll} 0, & z<0 \\ 0.5, & z=0 \\ 1, & z>0 \end{array}, \quad z=w^{T} x+b\right. p(y=1∣x)=⎩⎨⎧​0,0.5,1,​z<0z=0z>0​,z=wTx+b
但是这个阶跃函数不可微,对数几率函数是一个常用的替代函数:
y=11+e−(wTx+b)y=\frac{1}{1+e^{-\left(w^{T} x+b\right)}} y=1+e−(wTx+b)1​
于是有:
ln⁡y1−y=wTx+b\ln \frac{y}{1-y}=w^{T} x+b ln1−yy​=wTx+b
我们将 y 视为 x 为正例的概率, 则 1-y 为 x 为其反例的概率。两者的比值称为几率(odds),指 该事件发生与不发生的概率比值,若事件发生的概率为 p。则对数几率:
ln⁡(odds)=ln⁡y1−y\ln (\text {odds})=\ln \frac{y}{1-y} ln(odds)=ln1−yy​

将 y 视为类后验概率估计,車写公式有:
wTx+b=ln⁡P(Y=1∣x)1−P(Y=1∣x)P(Y=1∣x)=11+e−(wTx+b)\begin{array}{c} w^{T} x+b=\ln \frac{P(Y=1 \mid x)}{1-P(Y=1 \mid x)} \\ P(Y=1 \mid x)=\frac{1}{1+e^{-\left(w^{T} x+b\right)}} \end{array} wTx+b=ln1−P(Y=1∣x)P(Y=1∣x)​P(Y=1∣x)=1+e−(wTx+b)1​​
也就是说,输出 Y=1 的对数几率是由输入 x 的线性函数表示的模型,这就是逻辑回归模型。当 wTx+bw^{T} x+bwTx+b 的值越接近正无穷, P(Y=1∣x)\quad P(Y=1 \mid x)P(Y=1∣x) 概率值也就越接近 1∘1_{\circ}1∘​ 因此逻辑回归的思路是, 先拟合决策边界(不局限于线性, 还可以是多项式),再建立这个边界与分类的概率联系,从而得到 了二分类情况下的概率。

在这我们思考个问题,我们使用对数几率的意义在哪?通过上述推导我们可以看到 Logistic 回归实际上是使用线性回归模型的预测值逼近分类任务真实标记的对数几率,其优点有:

  1. 直接对分类的概率建模,无需实现假设数据分布,从而避免了假设分布不准确带来的问题;
  2. 不仅可预测出类别,还能得到该预测的概率,这对一些利用概率辅助决策的任务很有用;
  3. 对数几率函数是任意阶可导的凸函数,有许多数值优化算法都可以求出最优解。

代价函数
逻辑回归模型的数学形式确定后,剩下就是如何去求解模型中的参数。在统计学中,常常使用极大似然估计法来求解,即找到一组参数,使得在这组参数下,我们的数据的似然度(概率)最大。

设:
P(Y=1∣x)=p(x)P(Y=0∣x)=1−p(x)\begin{array}{l} P(Y=1 \mid x)=p(x) \\ P(Y=0 \mid x)=1-p(x) \end{array} P(Y=1∣x)=p(x)P(Y=0∣x)=1−p(x)​
似然函数:
L(w)=∏[p(xi)]yi[1−p(xi)]1−yiL(w)=\prod\left[p\left(x_{i}\right)\right]^{y_{i}}\left[1-p\left(x_{i}\right)\right]^{1-y_{i}} L(w)=∏[p(xi​)]yi​[1−p(xi​)]1−yi​
为了更方便求解,我们对等式两边同取对数,写成对数似然函数:
L(w)=∑[yiln⁡p(xi)+(1−yi)ln⁡(1−p(xi))]=∑[yiln⁡p(xi)1−p(xi)+ln⁡(1−p(xi))]=∑[yi(w⋅xi)−ln⁡(1+ew⋅xi)]\begin{aligned} L(w) &=\sum\left[y_{i} \ln p\left(x_{i}\right)+\left(1-y_{i}\right) \ln \left(1-p\left(x_{i}\right)\right)\right] \\ &=\sum\left[y_{i} \ln \frac{p\left(x_{i}\right)}{1-p\left(x_{i}\right)}+\ln \left(1-p\left(x_{i}\right)\right)\right] \\ &=\sum\left[y_{i}\left(w \cdot x_{i}\right)-\ln \left(1+e^{w \cdot x_{i}}\right)\right] \end{aligned} L(w)​=∑[yi​lnp(xi​)+(1−yi​)ln(1−p(xi​))]=∑[yi​ln1−p(xi​)p(xi​)​+ln(1−p(xi​))]=∑[yi​(w⋅xi​)−ln(1+ew⋅xi​)]​
在机器学习中我们有损失函数的概念,其衡量的是模型预测错误的程度。如果取整个数据集上的平 均对数似然损失, 我们可以得到:
J(w)=−1Nln⁡L(w)J(w)=-\frac{1}{N} \ln L(w) J(w)=−N1​lnL(w)
即在逻辑回归模型中,我们最大化似然函数和最小化损失函数实际上是等价的。

求解
求解逻辑回归的方法有非常多,我们这里主要聊下梯度下降和牛顿法。优化的主要目标是找到一个方向,参数朝这个方向移动之后使得损失函数的值能够减小,这个方向往往由一阶偏导或者二阶偏导各种组合求得。逻辑回归的损失函数是:
J(w)=−1n(∑i=1n(yiln⁡p(xi)+(1−yi)ln⁡(1−p(xi)))J(w)=-\frac{1}{n}\left(\sum_{i=1}^{n}\left(y_{i} \ln p\left(x_{i}\right)+\left(1-y_{i}\right) \ln \left(1-p\left(x_{i}\right)\right)\right)\right. J(w)=−n1​(i=1∑n​(yi​lnp(xi​)+(1−yi​)ln(1−p(xi​)))

  1. 随机梯度下降
    梯度下降是通过 J(w) 对 w 的一阶导数来找下降方向, 并且以迭代的方式来更新参数, 更新方式为
    gi=∂J(w)∂wi=(p(xi)−yi)xiwik+1=wik−αgi\begin{array}{c} g_{i}=\frac{\partial J(w)}{\partial w_{i}}=\left(p\left(x_{i}\right)-y_{i}\right) x_{i} \\ w_{i}^{k+1}=w_{i}^{k}-\alpha g_{i} \end{array} gi​=∂wi​∂J(w)​=(p(xi​)−yi​)xi​wik+1​=wik​−αgi​​
    其中 k 为迭代次数。每次更新参数后, 可以通过比较 ∥J(wk+1)−J(wk)∥\left\|J\left(w^{k+1}\right)-J\left(w^{k}\right)\right\|∥∥​J(wk+1)−J(wk)∥∥​ 小于闽值或者到达 最大迭代次数来停止迭代。
  2. 牛顿法
    牛顿法的基本思路是,在现有极小点估计值的附近对 f(x) 做二阶泰勒展开,进而找到极小点的下 一个估计值。假设 wkw^{k}wk 为当前的极小值估计值,那么有:
    φ(w)=J(wk)+J′(wk)(w−wk)+12J′′(wk)(w−wk)2\varphi(w)=J\left(w^{k}\right)+J^{\prime}\left(w^{k}\right)\left(w-w^{k}\right)+\frac{1}{2} J^{\prime \prime}\left(w^{k}\right)\left(w-w^{k}\right)^{2} φ(w)=J(wk)+J′(wk)(w−wk)+21​J′′(wk)(w−wk)2
    然后令 φ′(w)=0,\varphi^{\prime}(w)=0,φ′(w)=0, 得到了 wk+1=wk−J′(wk)J′′(wk)w^{k+1}=w^{k}-\frac{J^{\prime}\left(w^{k}\right)}{J^{\prime \prime}\left(w^{k}\right)}wk+1=wk−J′′(wk)J′(wk)​ 。因此有迭代更新式
    wk+1=wk−J′(wk)J′′(wk)=wk−Hk−1⋅gkw^{k+1}=w^{k}-\frac{J^{\prime}\left(w^{k}\right)}{J^{\prime \prime}\left(w^{k}\right)}=w^{k}-H_{k}^{-1} \cdot g_{k} wk+1=wk−J′′(wk)J′(wk)​=wk−Hk−1​⋅gk​
    其中 Hk−1H_{k}^{-1}Hk−1​ 为海森矩阵
    Hmn=∂2J(w)∂wm∂wn=hw(x(i))(1−pw(x(i)))xm(i)xn(i)H_{m n}=\frac{\partial^{2} J(w)}{\partial w_{m} \partial w_{n}}=h_{w}\left(x^{(i)}\right)\left(1-p_{w}\left(x^{(i)}\right)\right) x_{m}^{(i)} x_{n}^{(i)} Hmn​=∂wm​∂wn​∂2J(w)​=hw​(x(i))(1−pw​(x(i)))xm(i)​xn(i)​
    此外,这个方法需要目标函数是二阶连续可微的,本文中的 J(W) 是符合要求的。

学习目标

了解 逻辑回归 的理论
掌握 逻辑回归 的 sklearn 函数调用使用并将其运用到鸢尾花数据集预测

2.1 代码流程

Part1 Demo实践

 Step1:库函数导入Step2:模型训练 Step3:模型参数查看 Step4:数据和模型可视化 Step5:模型预测

Part2 基于鸢尾花(iris)数据集的逻辑回归分类实践

 Step1:库函数导入 Step2:数据读取/载入 Step3:数据信息简单查看 Step4:可视化描述 Step5:利用 逻辑回归模型 在二分类上 进行训练和预测 Step6:利用 逻辑回归模型 在三分类(多分类)上 进行训练和预测

3.1 Demo实践

Step1:库函数导入

##  基础函数库
import numpy as np ## 导入画图库
import matplotlib.pyplot as plt
import seaborn as sns## 导入逻辑回归模型函数
from sklearn.linear_model import LogisticRegression

Step2:训练模型

##Demo演示LogisticRegression分类## 构造数据集
x_fearures = np.array([[-1, -2], [-2, -1], [-3, -2], [1, 3], [2, 1], [3, 2]])
y_label = np.array([0, 0, 0, 1, 1, 1])## 调用逻辑回归模型
lr_clf = LogisticRegression()## 用逻辑回归模型拟合构造的数据集
lr_clf = lr_clf.fit(x_fearures, y_label) #其拟合方程为 y=w0+w1*x1+w2*x2

Step3:模型参数查看

##查看其对应模型的w
print('the weight of Logistic Regression:',lr_clf.coef_)
##查看其对应模型的w0
print('the intercept(w0) of Logistic Regression:',lr_clf.intercept_)
##the weight of Logistic Regression:[[0.73462087 0.6947908]]
##the intercept(w0) of Logistic Regression:[-0.03643213]

Step4:数据和模型可视化

## 可视化构造的数据样本点
plt.figure()
plt.scatter(x_fearures[:,0],x_fearures[:,1], c=y_label, s=50, cmap='viridis')
plt.title('Dataset')
plt.show()

# 可视化决策边界
plt.figure()
plt.scatter(x_fearures[:,0],x_fearures[:,1], c=y_label, s=50, cmap='viridis')
plt.title('Dataset')nx, ny = 200, 100
x_min, x_max = plt.xlim()
y_min, y_max = plt.ylim()
x_grid, y_grid = np.meshgrid(np.linspace(x_min, x_max, nx),np.linspace(y_min, y_max, ny))z_proba = lr_clf.predict_proba(np.c_[x_grid.ravel(), y_grid.ravel()])
z_proba = z_proba[:, 1].reshape(x_grid.shape)
plt.contour(x_grid, y_grid, z_proba, [0.5], linewidths=2., colors='blue')plt.show()

### 可视化预测新样本plt.figure()
## new point 1
x_fearures_new1 = np.array([[0, -1]])
plt.scatter(x_fearures_new1[:,0],x_fearures_new1[:,1], s=50, cmap='viridis')
plt.annotate(s='New point 1',xy=(0,-1),xytext=(-2,0),color='blue',arrowprops=dict(arrowstyle='-|>',connectionstyle='arc3',color='red'))## new point 2
x_fearures_new2 = np.array([[1, 2]])
plt.scatter(x_fearures_new2[:,0],x_fearures_new2[:,1], s=50, cmap='viridis')
plt.annotate(s='New point 2',xy=(1,2),xytext=(-1.5,2.5),color='red',arrowprops=dict(arrowstyle='-|>',connectionstyle='arc3',color='red'))## 训练样本
plt.scatter(x_fearures[:,0],x_fearures[:,1], c=y_label, s=50, cmap='viridis')
plt.title('Dataset')# 可视化决策边界
plt.contour(x_grid, y_grid, z_proba, [0.5], linewidths=2., colors='blue')plt.show()


Step5:模型预测

##在训练集和测试集上分布利用训练好的模型进行预测
y_label_new1_predict=lr_clf.predict(x_fearures_new1)
y_label_new2_predict=lr_clf.predict(x_fearures_new2)
print('The New point 1 predict class:\n',y_label_new1_predict)
print('The New point 2 predict class:\n',y_label_new2_predict)
##由于逻辑回归模型是概率预测模型(前文介绍的p = p(y=1|x,\theta)),所有我们可以利用predict_proba函数预测其概率
y_label_new1_predict_proba=lr_clf.predict_proba(x_fearures_new1)
y_label_new2_predict_proba=lr_clf.predict_proba(x_fearures_new2)
print('The New point 1 predict Probability of each class:\n',y_label_new1_predict_proba)
print('The New point 2 predict Probability of each class:\n',y_label_new2_predict_proba)
##TheNewpoint1predictclass:
##[0]
##TheNewpoint2predictclass:
##[1]
##TheNewpoint1predictProbabilityofeachclass:
##[[0.695677240.30432276]]
##TheNewpoint2predictProbabilityofeachclass:
##[[0.119839360.88016064]]

可以发现训练好的回归模型将X_new1预测为了类别0(判别面左下侧),X_new2预测为了类别1(判别面右上侧)。其训练得到的逻辑回归模型的概率为0.5的判别面为上图中蓝色的线。

3.2 基于鸢尾花(iris)数据集的逻辑回归分类实践

在实践的最开始,我们首先需要导入一些基础的函数库包括:numpy (Python进行科学计算的基础软件包),pandas(pandas是一种快速,强大,灵活且易于使用的开源数据分析和处理工具),matplotlib和seaborn绘图。

Step1:函数库导入

##  基础函数库
import numpy as np
import pandas as pd## 绘图函数库
import matplotlib.pyplot as plt
import seaborn as sns

本次我们选择鸢花数据(iris)进行方法的尝试训练,该数据集一共包含5个变量,其中4个特征变量,1个目标分类变量。共有150个样本,目标变量为 花的类别 其都属于鸢尾属下的三个亚属,分别是山鸢尾 (Iris-setosa),变色鸢尾(Iris-versicolor)和维吉尼亚鸢尾(Iris-virginica)。包含的三种鸢尾花的四个特征,分别是花萼长度(cm)、花萼宽度(cm)、花瓣长度(cm)、花瓣宽度(cm),这些形态特征在过去被用来识别物种。

Step2:数据读取/载入

##我们利用sklearn中自带的iris数据作为数据载入,并利用Pandas转化为DataFrame格式
from sklearn.datasets import load_iris
data = load_iris() #得到数据特征
iris_target = data.target #得到数据对应的标签
iris_features = pd.DataFrame(data=data.data, columns=data.feature_names) #利用Pandas转化为DataFrame格式

Step3:数据信息简单查看

##利用.info()查看数据的整体信息
iris_features.info()##<class'pandas.core.frame.DataFrame'>
##RangeIndex:150entries,0to149
##Datacolumns(total4columns):
###ColumnNon-NullCountDtype
##----------------------------
##0sepallength(cm)150non-nullfloat64
##1sepalwidth(cm)150non-nullfloat64
##2petallength(cm)150non-nullfloat64
##3petalwidth(cm)150non-nullfloat64
##dtypes:float64(4)
##memoryusage:4.8KB
##进行简单的数据查看,我们可以利用.head()头部.tail()尾部
iris_features.head()

iris_features.tail()

##其对应的类别标签为,其中0,1,2分别代表'setosa','versicolor','virginica'三种不同花的类别iris_target
##array([0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,
##0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,
##0,0,0,0,0,0,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
##1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
##1,1,1,1,1,1,1,1,1,1,1,1,2,2,2,2,2,2,2,2,2,2,
##2,2,2,2,2,2,2,2,2,2,2,2,2,2,2,2,2,2,2,2,2,2,
##2,2,2,2,2,2,2,2,2,2,2,2,2,2,2,2,2,2])
##利用value_counts函数查看每个类别数量pd.Series(iris_target).value_counts()##2    50
##1    50
##0    50
##dtype:int64
##对于特征进行一些统计描述iris_features.describe()


从统计描述中我们可以看到不同数值特征的变化范围。

Step4:可视化描述

## 合并标签和特征信息
iris_all = iris_features.copy() ##进行浅拷贝,防止对于原始数据的修改
iris_all['target'] = iris_target
## 特征与标签组合的散点可视化
sns.pairplot(data=iris_all,diag_kind='hist', hue= 'target')
plt.show()


从上图可以发现,在2D情况下不同的特征组合对于不同类别的花的散点分布,以及大概的区分能力。

for col in iris_features.columns:sns.boxplot(x='target', y=col, saturation=0.5,
palette='pastel', data=iris_all)plt.title(col)plt.show()


利用箱型图我们也可以得到不同类别在不同特征上的分布差异情况。

# 选取其前三个特征绘制三维散点图
from mpl_toolkits.mplot3d import Axes3Dfig = plt.figure(figsize=(10,8))
ax = fig.add_subplot(111, projection='3d')iris_all_class0 = iris_all[iris_all['target']==0].values
iris_all_class1 = iris_all[iris_all['target']==1].values
iris_all_class2 = iris_all[iris_all['target']==2].values
# 'setosa'(0), 'versicolor'(1), 'virginica'(2)
ax.scatter(iris_all_class0[:,0], iris_all_class0[:,1], iris_all_class0[:,2],label='setosa')
ax.scatter(iris_all_class1[:,0], iris_all_class1[:,1], iris_all_class1[:,2],label='versicolor')
ax.scatter(iris_all_class2[:,0], iris_all_class2[:,1], iris_all_class2[:,2],label='virginica')
plt.legend()plt.show()


Step5:利用 逻辑回归模型 在二分类上 进行训练和预测

##为了正确评估模型性能,将数据划分为训练集和测试集,并在训练集上训练模型,在测试集上验证模型性能。
from sklearn.model_selection import train_test_split
##选择其类别为0和1的样本(不包括类别为2的样本)
iris_features_part=iris_features.iloc[:100]
iris_target_part=iris_target[:100]
##测试集大小为20%,80%/20%分
x_train,x_test,y_train,y_test=train_test_split(iris_features_part,iris_target_part,test_size=0.2,random_state=2020)
##从sklearn中导入逻辑回归模型
from sklearn.linear_model import LogisticRegression
##定义逻辑回归模型
clf=LogisticRegression(random_state=0,solver='lbfgs')
##在训练集上训练逻辑回归模型
clf.fit(x_train,y_train)
##查看其对应的w
print('the weight of Logistic Regression:',clf.coef_)##查看其对应的w0
print('the intercept(w0) of Logistic Regression:',clf.intercept_)##在训练集和测试集上分布利用训练好的模型进行预测
train_predict=clf.predict(x_train)
test_predict=clf.predict(x_test)
from sklearn import metrics
##利用accuracy(准确度)【预测正确的样本数目占总预测样本数目的比例】评估模型效果
print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_train,train_predict))
print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_test,test_predict))##查看混淆矩阵(预测值和真实值的各类情况统计矩阵)
confusion_matrix_result=metrics.confusion_matrix(test_predict,y_test)
print('The confusion matrix result:\n',confusion_matrix_result)##利用热力图对于结果进行可视化
plt.figure(figsize=(8,6))
sns.heatmap(confusion_matrix_result,annot=True,cmap='Blues')
plt.xlabel('Predictedlabels')
plt.ylabel('Truelabels')
plt.show()##The accuracy of the Logistic Regressionis:1.0
##The accuracy of the Logistic Regressionis:1.0
##The confusion matrix result:
##[[9  0]
##[0  11]]

Step6:利用 逻辑回归模型 在三分类(多分类)上 进行训练和预测

##测试集大小为20%,80%/20%分
x_train,x_test,y_train,y_test=train_test_split(iris_features,iris_target,test_size=0.2,random_state=2020)
##定义逻辑回归模型
clf=LogisticRegression(random_state=0,solver='lbfgs')
##在训练集上训练逻辑回归模型
clf.fit(x_train,y_train)
##查看其对应的w
print('the weight of Logistic Regression:\n',clf.coef_)
##查看其对应的w0
print('the intercept(w0) of Logistic Regression:\n',clf.intercept_)
##由于这个是3分类,所有我们这里得到了三个逻辑回归模型的参数,其三个逻辑回归组合起来即可实现三分类
##在训练集和测试集上分布利用训练好的模型进行预测
train_predict=clf.predict(x_train)
test_predict=clf.predict(x_test)
##由于逻辑回归模型是概率预测模型(前文介绍的p=p(y=1|x,\theta)),所有我们可以利用predict_proba函数预测其概率train_predict_proba=clf.predict_proba(x_train)
test_predict_proba=clf.predict_proba(x_test)print('The test predict Probability of each class:\n',test_predict_proba)
##其中第一列代表预测为0类的概率,第二列代表预测为1类的概率,第三列代表预测为2类的概率。##利用accuracy(准确度)【预测正确的样本数目占总预测样本数目的比例】评估模型效果
print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_train,train_predict))
print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_test,test_predict))
##查看混淆矩阵
confusion_matrix_result=metrics.confusion_matrix(test_predict,y_test)
print('The confusion matrix result:\n',confusion_matrix_result)##利用热力图对于结果进行可视化
plt.figure(figsize=(8,6))
sns.heatmap(confusion_matrix_result,annot=True,cmap='Blues')
plt.xlabel('Predicted labels')
plt.ylabel('True labels')
plt.show()##The confusion matrix result:
##[[10  0   0]
##[0   8   2]
##[0   2   8]]

机器学习笔记I: 基于逻辑回归的分类预测相关推荐

  1. 机器学习笔记-基于逻辑回归的分类预测

    天池学习笔记:AI训练营机器学习-阿里云天池 基于逻辑回归的分类预测 1 逻辑回归的介绍和应用 1.1 逻辑回归的介绍 逻辑回归(Logistic regression,简称LR)虽然其中带有&quo ...

  2. ML机器学习算法(一): 基于逻辑回归的分类预测

    机器学习算法(一): 基于逻辑回归的分类预测 1 逻辑回归的介绍和应用 1.1 逻辑回归的介绍 逻辑回归(Logistic regression,简称LR)虽然其中带有"回归"两个 ...

  3. 机器学习算法(一): 基于逻辑回归的分类预测-Task01

    基于逻辑回归LR的分类预测 1.逻辑回归的介绍 Logistic Regression 虽然被称为回归,但其实际上是分类模型,并常用于二分类.Logistic Regression 因其简单.可并行化 ...

  4. python逻辑回归训练预测_[Python] 机器学习笔记 基于逻辑回归的分类预测

    导学问题 什么是逻辑回归(一),逻辑回归的推导(二 3),损失函数的推导(二 4) 逻辑回归与SVM的异同 逻辑回归和SVM都用来做分类,都是基于回归的概念 SVM的处理方法是只考虑 support ...

  5. 机器学习算法(一): 基于逻辑回归的分类预测③

    算法实践-- 基于鸢尾花(iris)数据集的逻辑回归分类实践 导入函数库 ## 基础函数库 import numpy as np import pandas as pd## 绘图函数库 import ...

  6. 阿里云 龙珠机器学习训练营Task1:机器学习算法(一): 基于逻辑回归的分类预测

    补充一些代码的注释,方便理解: #Step1:库函数导入 #基本函数库 import numpy as np #导入画图库 import matplotlib.pyplot as plt import ...

  7. 【天池龙珠训练营-机器学习】机器学习算法(一): 基于逻辑回归的分类预测

    一.逻辑回归简介 逻辑回归(Logistic regression,简称LR),是一个分类模型. 原理简介: Logistic回归虽然名字里带"回归",但是它实际上是一种分类方法, ...

  8. Scikit-Learn 机器学习笔记 -- 线性回归、逻辑回归、softmax回归

    Scikit-Learn 机器学习笔记 – 线性回归.逻辑回归.softmax回归 参考文档: handson-ml import numpy as np from matplotlib import ...

  9. 【数据分析与挖掘】基于LightGBM,XGBoost,逻辑回归的分类预测实战:英雄联盟数据(有数据集和代码)

    机器学习-LightGBM 一.LightGBM的介绍与应用 1.1 LightGBM的介绍 1.2 LightGBM的应用 二.数据集来源 三.基于英雄联盟数据集的LightGBM分类实战 Step ...

最新文章

  1. 神经网络反向传播梯度计算数学原理
  2. C#在WinForm中实现清空指定类型控件的内容
  3. vue 分享微信传参_vue 中使用微信分享接口(简单实用)
  4. tensorflow2.2.0安装_Zabbix5.0安装部署
  5. day20 函数闭包与装饰器
  6. iView 近期的更新,以及那些“不为人知”的故事
  7. 【机器视觉】 for算子
  8. python list 查找find_List 泛型 集合中 Find 的用法
  9. ubuntu入门知识
  10. oracle select之后自动保存excel_Excel制作自动化仓库入库单,数据录入、计算、保存只需一键完成...
  11. JSP的4大域对象及范围(简)
  12. 拖延2年的Bug,Linux 上的三星 SSD 驱动错误终于得到修复
  13. 保留地址就是私有地址吗?
  14. 探索性测试在哪里适合?
  15. python实现新年倒计时代码
  16. 在线弹钢琴HTML源码,在线弹钢琴 1.0
  17. error: C2679
  18. 给一个字符串数组,判断其是否是首尾相连的
  19. 【转】流媒体技术笔记(视频编码相关)
  20. ESP8266 SmartConfig一键配网

热门文章

  1. 行为设计模式 - 状态设计模式
  2. Github如何更新Fork的仓库
  3. node redis集群_如何使用集群扩展Node.js服务器
  4. 开发人员kpi怎么写_为什么开发人员应该知道怎么写
  5. python lxml使用_使用lxml和Python进行Web抓取的简介
  6. 头条白板面试_如何在白板上组织您的想法并粉碎技术面试
  7. Centos命令与Vim命令的学习记录
  8. 打基础一定要吃透这12类 Python 内置函数
  9. 手把手教你进行pip换源,让你的Python库下载嗖嗖的
  10. python3 [装饰器] 总结