文章目录

  • 1. 回归问题中的各种误差
    • 1.1 绝对误差和相对误差
    • 1.2 平均绝对误差
    • 1.3 均方误差!!!zei重要!!!!
    • 1.4 均方根误差
    • 1.5 平均绝对百分误差
  • 2. 分类问题判误指标(机器学习)
    • 2.1 二分类的混淆矩阵
    • 2.2 二级指标
      • 2.2.1 准确率(Accuracy)
      • 2.2.2 精确率(Precision)——查准率
      • 2.2.3 查全率、召回率、反馈率(Recall),也称灵敏度(Sensitivity)-TPR
      • 2.2.4 特异度(Specificity)-TNR
      • 2.2.5 FPR(假警报率)
    • 2.3 三级指标
      • 2.3.1 F1_score
      • 2.3.2 G-mean
      • 2.3.3 KS值
    • 2.4 ROC曲线、Auc值、KS曲线、Lift
      • 2.4.1 ROC曲线、Auc值
      • 2.4.2 KS
  • 3. 损失函数和风险函数
    • 3.1 损失函数(loss function)
      • 3.1.1 0-1损失函数
      • 3.1.2 平方损失函数
      • 3.1.3 绝对损失函数
      • 3.1.4 对数损失函数
    • 3.2 风险函数(期望损失)、经验风险
      • 3.2.1 期望损失
      • 3.2.2 经验风险(empirical risk)
      • 3.2.3 关于统计建模和机器学习的分水岭
    • 3.3监督学习的一个悖论(病态问题)
  • 4. 经验风险最小化与结构风险最小化
    • 4.1 经验风险最小化(empirical risk minimization,ERM)
    • 4.2 结构风险最小化(structural risk minimization,SRM)

1. 回归问题中的各种误差

1.1 绝对误差和相对误差

  • 绝对误差:
    E=Y−Y^E=Y-\hat{Y}E=Y−Y^
  • 相对误差:
    e=Y−Y^Ye=\frac{Y-\hat{Y}}{Y}e=YY−Y^​

1.2 平均绝对误差

英文:MeanAbsoluteError,MAE

MAE=1n∑i=1n∣Yi−Y^i∣MAE=\frac{1}{n}\sum_{i=1}^n|{Y_i-\hat{Y}_i}|MAE=n1​i=1∑n​∣Yi​−Y^i​∣

1.3 均方误差!!!zei重要!!!!

英文:Mean Square Error,MSE
mse=1n∑i=1n(Yi−Y^i)2mse=\frac{1}{n}\sum_{i=1}^n({Y_i-\hat{Y}_i})^2mse=n1​i=1∑n​(Yi​−Y^i​)2

1.4 均方根误差

英文:Root Mean Square Error,RMSE
RMSE=1n∑i=1n(Yi−Y^i)2RMSE=\sqrt{\frac{1}{n}\sum_{i=1}^n({Y_i-\hat{Y}_i})^2}RMSE=n1​i=1∑n​(Yi​−Y^i​)2​

1.5 平均绝对百分误差

英文:Mean Absolute Percentage Error,MAPE
MAPE=1n∑i=1n∣Yi−Yi^Yi∣MAPE=\frac1n\sum_{i=1}^n|\frac{Y_i-\hat{Y_i}}{Y_i}|MAPE=n1​i=1∑n​∣Yi​Yi​−Yi​^​​∣

一般认为MAPE < 10的情况下,预测精度高。

2. 分类问题判误指标(机器学习)

2.1 二分类的混淆矩阵

. (真实)肯定 (真实)否定
(预测)肯定 TP FP
(预测)否定 FN TN

TP:True Posirive:正确的肯定的分类数
TN:True Negatives:正确的否定的分类数
FP:False Positive:错误的肯定的分类数
FN:False Negatives:错误的否定

2.2 二级指标

2.2.1 准确率(Accuracy)

Accuracy=TP+TNTP+FP+TN+FNAccuracy=\frac{TP+TN}{TP+FP+TN+FN}Accuracy=TP+FP+TN+FNTP+TN​

2.2.2 精确率(Precision)——查准率

Precision=TPTP+FPPrecision=\frac{TP}{TP+FP}Precision=TP+FPTP​

2.2.3 查全率、召回率、反馈率(Recall),也称灵敏度(Sensitivity)-TPR

Recall=TPTP+FNRecall=\frac{TP}{TP+FN}Recall=TP+FNTP​

2.2.4 特异度(Specificity)-TNR

Specificity=TNTN+FPSpecificity=\frac{TN}{TN+FP}Specificity=TN+FPTN​

2.2.5 FPR(假警报率)

FPR=FPFP+TNFPR =\frac{FP}{FP + TN} FPR=FP+TNFP​

2.3 三级指标

2.3.1 F1_score

(1). 狭义F1
F1=2∗Precision∗RecallPrecision+RecallF_1=\frac{2*Precision*Recall}{Precision+Recall}F1​=Precision+Recall2∗Precision∗Recall​

(2). 范式
Fβ=(1+β2)∗Precision∗Recallβ2∗Precision+RecallF_\beta=\frac{(1+\beta^2)*Precision*Recall}{\beta^2*Precision+Recall} Fβ​=β2∗Precision+Recall(1+β2)∗Precision∗Recall​

β2=RecallweightPrecisionweight\beta^2=\frac{Recall_{weight}}{Precision_{weight}}β2=Precisionweight​Recallweight​​

Recallweight+Precisionweight=1Recall_{weight}+Precision_{weight}=1Recallweight​+Precisionweight​=1

这个公式具体的推导,推荐这篇博客https://blog.csdn.net/shy19890510/article/details/79501582

  • 解释:
  • 在实际的情况中可能对于查全率和查准率的要求不同、比如对于推荐系统而言,查准率比较重要;而对于逃犯系统,查全率重要。

2.3.2 G-mean

G−mean=Recall∗SpecificityG-mean=\sqrt{Recall*Specificity}G−mean=Recall∗Specificity​

在数据不平衡的时候,这个指标很有参考价值。

2.3.3 KS值

KS=max(TPR−FPR)KS=max(TPR-FPR )KS=max(TPR−FPR)

2.4 ROC曲线、Auc值、KS曲线、Lift

这边推荐三篇博客:
第一篇传送门https://blog.csdn.net/shy19890510/article/details/79501582
第二篇传送门https://blog.csdn.net/lz_peter/article/details/78054914
第三篇传送门https://blog.csdn.net/lz_peter/article/details/79296431

2.4.1 ROC曲线、Auc值


绿色的线就是ROC曲线,注意观察横纵坐标,分别为FPR、TPR。
曲线下方的绿色阴影面积就是AUC值。

2.4.2 KS

KS(Kolmogorov-Smirnov)值越大,表示模型能够将正、负客户区分开的程度越大。
这个跟模型设置的判断的阈值有很大关系。

3. 损失函数和风险函数

这部分内容总结自:李航,统计学习方法[M],北京:清华大学出版社,2012.
这本书特别基础!墙裂推荐!!!入门必备!

3.1 损失函数(loss function)

3.1.1 0-1损失函数

L(Y,f(X))={1Y!=f(X)0Y=f(X)L(Y,f(X))=\begin{cases} 1 &amp; \text{Y!=f(X)}\\ 0 &amp; \text{Y=f(X)} \end{cases} L(Y,f(X))={10​Y!=f(X)Y=f(X)​

3.1.2 平方损失函数

L(Y,f(X))=(Y−f(X))2L(Y,f(X))=(Y-f(X))^2 L(Y,f(X))=(Y−f(X))2

3.1.3 绝对损失函数

L(Y,f(X))=∣Y−f(X)∣L(Y,f(X))=|Y-f(X)| L(Y,f(X))=∣Y−f(X)∣

3.1.4 对数损失函数

L(Y,P(Y∣X))=−logP(Y∣X)L(Y,P(Y|X))=-logP(Y|X) L(Y,P(Y∣X))=−logP(Y∣X)

3.2 风险函数(期望损失)、经验风险

损失函数越小,模型就越好。假设(X,Y)遵循联合分布P(X,Y),所以损失函数的期望就是:

3.2.1 期望损失

损失函数基于联合分布P(X,Y)的期望损失,也称为风险函数:
Rexp(f)=EP[L(Y,f(X))]=∫x∗yL(y,f(x))P(x,y)dxdyR_{exp}(f)=E_P[L(Y,f(X))]=\int_{x*y}{L(y,f(x))P(x,y)}dxdy Rexp​(f)=EP​[L(Y,f(X))]=∫x∗y​L(y,f(x))P(x,y)dxdy
但是P(X,Y)一般是未知的,不可以直接计算期望。

3.2.2 经验风险(empirical risk)

训练集样本 的平均损失
Rexp(f)=1N∑i=1NL(yi,f(xi))R_{exp}(f)=\frac1N\sum_{i=1}^N{L(y_i,f(x_i))} Rexp​(f)=N1​i=1∑N​L(yi​,f(xi​))
根据大数定理,当N足够大的时候,经验风险趋于期望风险,所以用经验风险去估计期望风险。由于实际训练的时候,样本量数目有限,因此需要对经验风险有一定的矫正,就有了结构风险的概念,在下一节(4)说明。

3.2.3 关于统计建模和机器学习的分水岭

这是我个人理解,欢迎指正。
由此就出现一个分界线:对于传统的统计模型,我们是基于数据模拟的分布,选择合适的模型建模,因此,统计建模之后,由于数据是在严格的分布情况下建模,比如线性模型、零膨胀负二项模型、逻辑回归等(优势比的概念去解释),模型的可解释性很强。这里根本上的依据是中心极限定理、大数定理;
而实际上对于很多事实的情况就是,对于联合分布P(X,Y)是未知的,因此会采用各种机器学习的方法去尽可能拟合数据、预测未来走势。这时候就弱化了对于数据分布上的要求。那为什么基于历史数据可以预测新数据呢?这里主要依据的是霍夫丁不等式。

3.3监督学习的一个悖论(病态问题)

一方面根据期望风险最小学习模型要用到联合分布,一方面联合分布又未知,所以监督学习就成为了一个病态问题。

4. 经验风险最小化与结构风险最小化

这基本上就是统计建模和机器学习建模的所有模型的最最最基础最最最核心的知识!!!
它本质上还是架在损失函数上面去讨论问题。

4.1 经验风险最小化(empirical risk minimization,ERM)

min⁡f∈F1N∑i=1NL(yi,f(xi))\min\limits_{f\in{F}} \quad \frac1N\sum_{i=1}^N{L(y_i,f(x_i))} f∈Fmin​N1​i=1∑N​L(yi​,f(xi​))
F为假设空间

很常见的极大似然估计就是一个广泛的应用!当模型是条件概率 分布时,损失函数是对数损失函数的时候,经验风险最小化等价于极大似然估计。

4.2 结构风险最小化(structural risk minimization,SRM)

Rsrm(f)=1N∑i=1NL(yi,f(xi))+λJ(f)R_{srm}(f)=\frac1N \sum_{i=1}^N{L(y_i,f(x_i))}+\lambda J(f) Rsrm​(f)=N1​i=1∑N​L(yi​,f(xi​))+λJ(f)
其中:J(f)是模型的复杂度,也成为罚项、正则化项。
到此,监督学习问题变为了,寻求结构风险最小话的优化求解。
min⁡f∈FRsrm(f)=1N∑i=1NL(yi,f(xi))+λJ(f)\min\limits_{f\in{F}} \quad R_{srm}(f)=\frac1N \sum_{i=1}^N{L(y_i,f(x_i))}+\lambda J(f) f∈Fmin​Rsrm​(f)=N1​i=1∑N​L(yi​,f(xi​))+λJ(f)

2.sklearn—评价指标大全(平均误差、均方误差、混淆矩阵、准确率、查全率、查准率、召回率、特异度,F1-score、G-mean、KS值、ROC曲线、AUC值、损失函数、结构风险最小)相关推荐

  1. 分类器MNIST交叉验证准确率、混淆矩阵、精度和召回率(PR曲线)、ROC曲线、多类别分类器、多标签分类、多输出分类

    本博客是在Jupyter Notebook下进行的编译. 目录 MNIST 训练一个二分类器 使用交叉验证测量精度 混淆矩阵 精度和召回率 精度/召回率权衡 ROC曲线 多类别分类器 错误分析 多标签 ...

  2. 混淆矩阵与精确度、召回率、F1 Score

    1.计算公式 从混淆矩阵计算精确度.召回率.F1 Score的过程如下图所示,其中P和R即Precision和Recall: 2.验证实验 如下图为Azure ML自带的一个示例给出的模型评分结果:原 ...

  3. 机器学习评价指标(1)——灵敏度(sensitivity)/查准率/召回率(Recall)/和特异度(Specificity)

    1. 敏感性和特异性 理想状态:标准或者阈值在分界点 实际状况:漏诊和误诊二者择一 若选用绿线作为判断标准,则没有误判一个正常人,但是漏掉了部分患者.这种情况下,特异度最高: 特异度(TNR):tru ...

  4. python使用sklearn的ConfusionMatrixDisplay来可视化混淆矩阵

    python使用sklearn的ConfusionMatrixDisplay来可视化混淆矩阵 目录 python使用sklearn的ConfusionMatrixDisplay来可视化混淆矩阵 #模型 ...

  5. 搞懂回归和分类模型的评价指标的计算:混淆矩阵,ROC,AUC,KS,SSE,R-square,Adjusted R-Square

    今天看到某同学总结了回归和分类模型的评价指标,两篇博客讲的特别清楚,看完后以前的疑惑都解除了,收获很大,加一点补充,整理出来方便以后查看,蓝色的大标题是原文链接. 回归模型的几个评价指标 对于回归模型 ...

  6. 模型评价指标——混淆矩阵/ROC曲线/AUC曲线

    一.混淆矩阵 TP = True Postive真阳性:FP = False Positive假阳性 :FN = False Negative假阴性:TN = True Negative真阴性 ① 精 ...

  7. 机器学习模型评价指标:准确率(Precision)、召回率(Recall)、F值(F-Measure)、ROC曲线、PR曲线

    转自机器学习:准确率(Precision).召回率(Recall).F值(F-Measure).ROC曲线.PR曲线 摘要: 数据挖掘.机器学习和推荐系统中的评测指标-准确率(Precision).召 ...

  8. 机器学习各种模型评价指标:准确率(Precision)、召回率(Recall)、F值(F-Measure)、ROC曲线、PR曲线

    周志华老师的西瓜书的第2章:模型评估与选择 摘要: 数据挖掘.机器学习和推荐系统中的评测指标-准确率(Precision).召回率(Recall).F值(F-Measure)简介. 引言: 在机器学习 ...

  9. 【ML】混淆矩阵(Accuracy,Precision,Recall,F1)

    混淆矩阵(评价模型的重要指标) 如上图,有以下规律:深绿色为预测真确,浅绿色为预测错误,也可以说以T开头的都是预测对的,以F开头的都是预测错误的.比如TP:即预测为真的实际也为真的样本数量,反过来,F ...

  10. 机器学习的评价指标:准确率(Precision)、召回率(Recall)、F值(F-Measure)、ROC曲线等

    在介绍指标前必须先了解"混淆矩阵": 混淆矩阵 True Positive(真正,TP):将正类预测为正类数 True Negative(真负,TN):将负类预测为负类数 Fals ...

最新文章

  1. 用于目标检测的半自动视频标注
  2. 解决SQL Server 2000 错误15023:当前数据库中已存在用户或角色
  3. 667. Beautiful Arrangement II
  4. Android 系统(113)----单机高概率问题处理方法
  5. java 扩展数据类型_与Java的初遇——数据类型扩展
  6. 12 种主流编程语言输出“ Hello World ”,你真的都会了吗?
  7. openstack instance bootmgr is missing 问题 修复
  8. 从Hive导入数据到ES
  9. PHP array_rand随机获取数组中的数据
  10. 轻量级Java EE企业应用实战(第4版):Struts 2+Spring 4+Hibernate整合开发(含CD光盘1张)
  11. 【Flink 实战系列】Flink on yarn 为什么 Allocated CPU VCores 显示不正确?
  12. ZYNQ基本使用(2) GPIO的使用
  13. 易语言大漠前台切换多开模板教程
  14. 室内设计——海市蜃楼售楼部室内设计(包含预览图jpg和.psd文件)
  15. MATLAB08:符号运算
  16. 怎么使用迅捷文字转语音软件转换文字
  17. Web 视频播放前前后后那些事
  18. 刘汝佳 例题7-1 除法(暴力解法)
  19. 对表空间 'USERS' 无权限
  20. 百度杯2017年春秋欢乐赛

热门文章

  1. 阿里云服务器远程桌面安装
  2. 击鼓传花c语言编程题,转身之间——此间的少年画蛇添足版
  3. 实现微信自动回复看电影!
  4. VS2017出现的神奇错误HRSULT:0x80041FE2
  5. 工具 - UI原型设计工具Pencil Project
  6. ps怎么缩放图层大小_PS怎么快速修改图层大小|Adobe Photoshop CS6图层大小尺寸调整--系统之家...
  7. C语言match函数的定义与用法,Match函数的基本用法
  8. 按键精灵开发传奇手游教程-现在比较火的美杜莎传奇为例
  9. redis key设计技巧
  10. MFC弹出确认和取消对话框