理解逻辑回归中的后验概率和损失函数
一、理解后验概率
在LR中, 后验概率 。很多人不禁会问,为什么要这么计算? 这里通过对后验概率的推导,并结合sigmod,来谈谈自己的看法。
首先,由贝叶斯公式得
(1)
由全概率公式得
(2)
化简 (2) 式得
(3)
(3) 式在LR中的表示为
(4)
(3) 式分母第二项表达的意思是 分到两个类的概率之比,那究竟是分到1的类别大还是分到0的概率大?简单来说便是该如何量化的问题。因此,(4) 式分母中的第二项就给出了一种合理的量化分法,可以分三种情况讨论一下这个问题。
1、 刚好落在 决定的分类边界上。此时 (4) 中分母的第二子项的值为 1,分到两个类别的概率是相同的,(3) 中分母第二子项的值也应该为 1。
2、 落在 决定的分类边界的上方。此时 (4) 中分母的第二子项的值会小于1,sigmod值大于 0.5,因此我们认为 属于 1 分类的概率更大一些,对应到 (3) 式分母的第二个子项,应该是分母应该比分子要大。
3、 落在 决定的分类边界的下方。此时 (4) 中分母的第二子项的值大于1,sigmod值小于 0.5,因此我们认为 属于0 分类的概率会更大一些。对应到 (3) 式分母的第二个子项,应该是分母应该比分子要小。此时将样本 分错了,后面会介绍对此的惩罚。
所以, 由上述三种情况的分析来看,逻辑回归中的后验概率表示和实际的后验概率表达的意图是相同的,只不过我们借助sigmod 和 完成了对后验概率的量化,以此便可以通过最大似然定义损失函数并进行训练。
一、理解损失函数
在大多数的参考资料中,LR中的损失函数定义为下式
如何去理解它那?其实很简单,我们来简单讨论一下。
如果一个实际为 1 分类的样本被划分到了分类边界以下,说明模型把它分错了,对应到上式,它的惩罚是 ,即在分类边界以下且距离分类边界越远, 越大,给的惩罚越大,因为分类也分的太离谱了!如果离边界不远, 接近于 0,相当于给予一点点的惩罚。
同样的,如果一个实际为 -1 分类的样本被划分到了分类边界以上,对应到上式,它的惩罚是 。即在分类边界以上且距离分类边界越远, 越大,给的惩罚越大,因为同样分类分的太离谱了!如果离边界不远, 接近于 0,相当于给予一点点的惩罚。
和人一样,犯的错误较大,惩罚要大一些;犯的错误小一点,惩罚也小一点。
那既然模型犯了错误,它如何改正错误那? 通过对损失函数求导得
这就是模型改错的具体行动,如果不犯错,上式为 0。
理解逻辑回归中的后验概率和损失函数相关推荐
- 理解逻辑回归中的ROC曲线和KS值
1.回归和分类任务 分类和回归都属于监督学习(训练样本带有信息标记,利用已有的训练样本信息学习数据的规律预测未知的新样本标签) 分类预测的结果是离散的(例如预测明天天气-阴,晴,雨) 回归预测的任务是 ...
- 如何理解逻辑回归中的似然函数
网上的理解五花八门,千奇百怪.但是很少有人能触碰到逻辑回归的精髓.我认为wiki上的讲解是最正统的.以下是我看wiki之后,自己的思考: https://en.wikipedia.org/wiki/L ...
- 梯度下降原理及在线性回归、逻辑回归中的应用
1 基本概念 1)定义 梯度下降法,就是利用负梯度方向来决定每次迭代的新的搜索方向,使得每次迭代能使待优化的目标函数逐步减小. 梯度下降法是2范数下的最速下降法. 最速下降法的一种简单形式是:x(k+ ...
- 小白也能懂--逻辑回归中损失函数的难点理解
写下此文是因自己在学习的过程中对逻辑回归的损失函数定义有所疑惑,查了诸多资料才得以理解,因此在此记录下来,一是为来日忘却时能够回来查阅,二是希望为有同样困惑的伙伴提供一点帮助. 1. 逻辑回归(Log ...
- 逻辑回归中的损失函数的解释
1.Logistic Regression(逻辑回归) 逻辑回归是机器学习中的一个非常常见的模型, 逻辑回归模型其实仅在线性回归的基础上,套用了一个逻辑函数. 逻辑回归可以看做是两步,第一步和线性回归 ...
- 【机器学习基础】(三):理解逻辑回归及二分类、多分类代码实践
本文是机器学习系列的第三篇,算上前置机器学习系列是第八篇.本文的概念相对简单,主要侧重于代码实践. 上一篇文章说到,我们可以用线性回归做预测,但显然现实生活中不止有预测的问题还有分类的问题.我们可以从 ...
- 吴恩达深度学习 —— 2.9 逻辑回归中的梯度下降法
这一节讨论怎么计算偏导数来实现逻辑回归的梯度下降法,它的核心关键点是其中有几个重要法公式用于实现逻辑回归的梯度下降法. 这里将使用导数流程图来计算梯度,必须承认,用导数流程图来计算逻辑回归的梯度下降有 ...
- 机器学习:理解逻辑回归及二分类、多分类代码实践
作者 | caiyongji 责编 | 张红月 来源 | 转载自 caiyongji(ID:cai-yong-ji) 本文的概念相对简单,主要侧重于代码实践.现实生活中不止有预测的问题还有分类的问 ...
- 逻辑回归中的梯度下降法
梯度下降法:该算法是一个一阶最优化算法,通过向函数上当前点对应梯度(或近似梯度)的反方向的规定步长距离点进行迭代搜索找到一个函数的局部极小值. 以一元函数为例说明梯度下降法: w的更新会朝着成本函数J ...
最新文章
- 计算机一级判断题2016,2016年12月计算机一级考试WPS判断题及答案
- web架构设计经验分享 (转)
- VC++更改鼠标指针为系统预定义形状和自定义形状
- 推荐系统阅读清单:最近我们在读哪些论文?
- asp.net 页面static变量问题
- Failed to install *.apk on device *: timeout
- MyBatis增删改对二级缓存的影响
- “嘿,我们又见面了!”
- spring oauth2 OAuth2AuthenticationProcessingFilter 校验token过滤器
- 《极客与团队》一第二章 培养出色的团队文化
- 2.7 HDFS的使用
- mfc遍历指定文件夹下的所有文件并排序
- 多目标布谷鸟(MOCS)优化算法附Matlab代码
- 邱锡鹏,这是Transformer最全综述
- tortoise-orm 分页码(python)
- 润乾报表简单报表制作流程(胎盘级教程)
- appbase_构建一个Chrome扩展程序,以使用Appbase进行实时价格跟踪
- 独角兽微盟的“AB面”
- java crm 进销存 websocket即时聊天发图片文字 好友群组 SSM源码
- 2022年湖南省社会工作者考试综合实务(初级)练习题及答案