本系列为深入篇,尽可能完善专题知识,并不会所有的都会出现在面试中,更多内容,详见:Reflection_Summary,欢迎交流。

另外,欢迎大家关注我的个人bolg,知乎,更多代码内容欢迎follow我的个人Github,如果有任何算法、代码疑问都欢迎通过邮箱发消息给我。


logistic分布函数和密度函数,手绘大概的图像

  • 分布函数:
  • 密度函数:
  • 其中,μ表示位置参数,γ为形状参数。logistic分布比正太分布有更长的尾部且波峰更尖锐

LR推导,基础5连问

  • 基础公式

    • f(x) = wx + b
    • y = sigmoid(f(x))
    • 可以看作是一次线性拟合+一次sigmoid的非线性变化
  • 伯努利过程
    • 对于lr来说事情只有发生和不发生两种可能,对于已知样本来说,满足伯努利的概率假设:

      • p(y=1/x,θ) = h(θ,x)
      • p(y=0/x,θ) = 1-h(θ,x)
      • p(y/x,θ) = h(θ,x)^y · (1-h(θ,x))^(1-y)
        • 第i个样本正确预测的概率如上可得
    • 几率odds
      • 数据特征下属于正例及反例的比值
      • ln(y/(1-y))
  • 极大似然
    • 第i个样本正确预测的概率如上可得每条样本的情况下
    • 综合全部样本发生的概率都要最大的话,采取极大似然连乘可得:
      • ∏(h(θ,x)^y · (1-h(θ,x))^(1-y))
  • 损失函数
    • 通常会对极大似然取对数,得到损失函数,方便计算

      • ∑ylogh(θ,x)+(1-y)log(1-h(θ,x))最大
      • 及-1/m · ∑ylogh(θ,x)+(1-y)log(1-h(θ,x))最小
  • 梯度下降
    • 损失函数求偏导,更新θ
    • θj+1 = θj - ∆·∂Loss/∂θ =θj - ∆·1/m·∑x·(h-y)
      • ∆为学习率

梯度下降如何并行化?

  • 首先需要理解梯度下降的更新公式:

    • ∑处的并行,不同样本在不同机器上进行计算,计算完再进行合并
    • 同一条样本不同特征维度进行拆分,处并行,把内的xi和Wi拆分成块分别计算后合并,再把外层同样拆分成若干块进行计算

LR明明是分类模型为什么叫回归?

观测样本中该特征在正负类中出现概率的比值满足线性条件,用的是线性拟合比率值,所以叫回归

为什么LR可以用来做CTR预估?

  1. 点击行为为正向,未点击行为为负向,ctr需要得到点击行为的概率,lr可以产出正向行为的概率,完美match
  2. 实现简单,方便并行,计算迭代速度很快
  3. 可解释性强,可结合正则化等优化方法

满足什么样条件的数据用LR最好?

  • 特征之间尽可能独立

    • 不独立所以我们把不独立的特征交叉了

      • 还记得FM的思路?
  • 离散特征
    • 连续特征通常没有特别含义,31岁和32岁差在哪?
    • 离散特征方便交叉考虑
    • 在异常值处理上也更加方便
    • 使的lr满足分布假设
      • 什么分布假设?
  • 在某种确定分类上的特征分布满足高斯分布
    • C1和C2为正负类,观测样本中该特征在正负类中出现概率的比值满足线性条件的前提就是P服从正太分布
      • 实际中不满足的很多,不满足我们通常就离散化,oneHotEncode

此处就用到了全概率公式推导,有可能会回到写出全概率公式&贝叶斯公式的问题中

LR为什么使用sigmoid函数作为激活函数?其他函数不行吗?

  • 思路一:lr的前提假设就是几率odds满足线性回归,odds又为正负样本的log比,参见满足什么样条件的数据用LR最好?中第三点公式的展开
  • 思路二:Exponential model 的形式是这样的:假设第i个特征对第k类的贡献是,则数据点属于第k类的概率正比于
    • 二分类上:
    • 化简即为sigmoid
    • 以上思路源自:PRML(Pattern Recognition and Machine Learning)
  • 思路三:glm有满足指数族的性质,而作为lr作为y满足伯努利分布的的线性条件,伯努利分布的指数族形式就是sigmoid,或者也叫连接函数

利用几率odds的意义在哪?

  • 直接对分类模型进行建模,前提假设为非常弱的指定类别上自变量的条件分布满足高斯
  • 由预测0/1的类别扩展到了预测0-1的概率值
  • 任意阶可导的优秀性质

Sigmoid函数到底起了什么作用?

  • 数据规约:[0,1]
  • 线性回归在全量数据上的敏感度一致,sigmoid在分界点0.5处更加敏感
  • sigmoid在逻辑回归的参数更新中也不起影响,避免了更新速度不稳定的问题

LR为什么要使用极大似然函数,交互熵作为损失函数?那为什么不选平方损失函数的呢

  • 更新速度只与真实的x和y相关,与激活函数无关,更新平稳

    • 比如mse就会导致更新速度与激活函数sigmoid挂钩,而sigmoid函数在定义域内的梯度大小都比较小(0.25>x),不利于快速更新
    • mse下的lr损失函数非凸,难以得到解析解

LR中若标签为+1和-1,损失函数如何推导?

  • way1:把0-1的sigmoid的lr结果Y映射为2y-1,推导不变
  • way2:把激活函数换成tanh,因为tanh的值域范围为[-1,1],满足结果,推导不变
  • way3:依旧以sigmoid函数的话,似然函数(likelihood)模型是:,重复极大似然计算即可

如果有很多的特征高度相关或者说有一个特征重复了100遍,会造成怎样的影响?

为什么要避免共线性?

  • 如果在损失函数最终收敛的情况下,其实就算有很多特征高度相关也不会影响分类器的效果
  • 每一个特征都是原来特征权重值的百分之一,线性可能解释性优点也消失了
  • 增加训练收敛的难度及耗时,有限次数下可能共线性变量无法收敛,系数估计变得不可靠
  • 泛化能力变差,训练是两列特征可能会共线性,当线上数据加入噪声后共线性消失,效果可能变差

LR可以用核么?可以怎么用?

结论:可以,加l2正则项后可用

原因:

  • 核逻辑回归,需要把拟合参数w表示成z的线性组合及representer theorem理论。这边比较复杂,待更新,需要了解:

    • w拆解的z的线性组合中的系数α来源
    • representer theorem 的证明
      • 凡是进行L2正则化的线性问题我们都能使用核函数的技巧的证明
    • 如何将将W*表示成β的形式带到我们最佳化的问题

LR中的L1/L2正则项是啥?

  • L1正则项:为模型加了一个先验知识,未知参数w满足拉普拉斯分布, ,u为0。在lr模型损失函数中新增了
  • L2正则项:为模型加了一个先验知识,未知参数w满足0均值正太分布,,u为0。在lr模型损失函数中新增了

lr加l1还是l2好?

这个问题还可以换一个说法,l1和l2的各自作用。
刚才我们说到l1对未知参数w有个前提假设满足拉普拉斯分布,l2对未知参数的假设则是正太分布,且都是零均值,单纯从图像上我们就可以发现,拉普拉斯对w的规约到0的可能性更高,所以对于特征约束强的需求下l1合适,否则l2

正则化是依据什么理论实现模型优化?

结构风险最小化:在经验风险最小化的基础上(也就是训练误差最小化),尽可能采用简单的模型,以此提高泛化预测精度。

LR可以用来处理非线性问题么?

  • 特征交叉,类似fm
  • 核逻辑回归,类似svm
  • 线性变换+非线性激活,类似neural network

为什么LR需要归一化或者取对数?

模型中对数据对处理一般都有一个标答是提升数据表达能力,也就是使数据含有的可分信息量更大

  • 工程角度:

    • 加速收敛
    • 提高计算效率
  • 理论角度:
    • 梯度下降过程稳定
    • 使得数据在某类上更服从高斯分布,满足前提假设,这个是必须要答出来的
    • 归一化和标准化之间的关系

为什么LR把特征离散化后效果更好?离散化的好处有哪些?

  • 原来的单变量可扩展到n个离散变量,每个变量有单独的权重,相当于为模型引入了非线性,能够提升模型表达能力,加大拟合
  • 离散后结合正则化可以进行特征筛选,更好防止过拟合
  • 数据的鲁棒性更好,不会因为无意义的连续值变动导致异常因素的影响,(31岁和32岁的差异在哪呢?)
  • 离散变量的计算相对于连续变量更快

逻辑回归估计参数时的目标函数逻辑回归的值表示概率吗?

lr的output是彼此之间相对谁的可能性更高,而不是概率,概率是事情发生的可能,lr的output不代表可能

LR对比万物?

  • lr和线性回归

    • lr解用的极大似然,线性回归用的最小二乘
    • lr用于分类,线性回归用于回归
    • 但两者都是广义线性回归GLM问题
    • 两者对非线性问题的处理能力都是欠佳的
  • lr和最大熵

    • 在解决二分类问题是等同的
  • lr和svm

    • 都可分类,都是判别式模型思路
    • 通常都是用正则化进行规约
    • 模型上
      • lr是交叉熵,svm是HingeLoss
      • lr是全量数据拟合,svm是支持向量拟合
      • lr是参数估计有参数的前提假设,svm没有
      • lr依赖的是极大似然,svm依赖的是距离
  • lr和朴素贝叶斯

    • 如果朴素贝叶斯也有在某一类上的数据x满足高斯分布的假设前提,lr和朴素贝叶斯一致
    • lr是判别模型,朴素贝叶斯是生成模型
    • lr没有明确feature条件独立(但是不能共线性,理由之前讲了),朴素贝叶斯要求feature条件独立
  • lr和最大熵模型

    • 本质没有区别
    • 最大熵模型在解决二分类问题就是逻辑回归
    • 最大熵模型在解决多分类问题的时候就是多项逻辑回归回归

LR梯度下降方法?

  • 随机梯度下降

    • 局部最优解,可跳出鞍点
    • 计算快
  • 批梯度下降
    • 全局最优解
    • 计算量大
  • mini批梯度下降
    • 综合以上两种方法

除此之外,比如ada和冲量梯度下降法会对下降的速率速度进行控制,也会对不同更新速度的参数进行控制,等等,多用于深度学习中

LR的优缺点?

  • 优点

    • 简单,易部署,训练速度快
    • 模型下限较高
    • 可解释性强
  • 缺点
    • 只能线性可分
    • 数据不平衡需要人为处理,weight_class/有哪些常见的采样方法
    • 模型上限较低

除了做分类,你还会用LR做什么?

特征筛选,特征的系数决定该特征的重要性

你有用过sklearn中的lr么?你用的是哪个包?

sklearn.linear_model.LogisticRegression

看过源码么?为什么去看?

  • 看部分参数的解释

    • 比如dual、weight_class中的1:0还是0:1比
    • 比如输出值的形式,输出的格式

谈一下sklearn.linear_model.LogisticRegression中的penalty和solver的选择?

  • penalty是正则化,solver是函数优化方法
  • penalty包含l1和l2两种,solver包含坐标轴下降、牛顿、随机梯度下降等
  • 牛顿法,拟牛顿法和随机梯度下降都不能使用l1,因为他们都需要损失函数的一阶二阶导数,而坐标轴下降法不限制这些,l1和l2都可行。
  • l1和l2选择参考上面讲的正则化部分
  • 随机梯度下降在数据较少的时候最好别用,但是速度比较快。默认的是坐标轴下降法

谈一下sklearn.linear_model.LogisticRegression中对多分类是怎么处理的?

  • 首先,决定是否为多分类的参数是multi_class
  • 在二分类的时候,multi和ovr和auto都是一样的
  • 在真正执行multi的时候,会通过LabelEncoder把目标值y离散化,不停的选择两类去做ovr的计算直到取完所有情况

我的总结

  • 逻辑回归假设观测样本中该特征在正负类中出现结果服从伯努利分布,通过极大化似然函数的方法,运用梯度下降来求解参数,来达到将数据二分类的目的
  • 逻辑回归本质是线性模型,只能解决线性相关的问题,非线性相关用核或者svm等
  • 逻辑回归不需要特征的条件独立,但是不能共线性,需要核线性回归一样,做共线性检验
  • 逻辑回归对样本噪声是鲁棒对,SVM对噪声比较敏感,而logistic回归对噪声不是很敏感,是因为如果噪声点落在了支持向量上,将会直接影响判别面的方程。而logistic回归通过最大似然求解模型参数,将会弱化噪声的影响

LR需要理解的一些内容相关推荐

  1. python神器pandas_Python数据处理神器,pandas入门必需理解的核心内容

    在 Python 中做处理数据,那么必须要使用 pandas ,否则你根本做不到'人生苦短,我学Python'. 最近发生了一件小事情,让我意识到许多人没有系统掌握 pandas .我的一位同事在使用 ...

  2. 一句话理解Vue核心内容

    想必教程大家已经看过,也动手做过一些Demo.倘若让大家用一句话概括'"vue是什么",你的答案会是什么?.这里Vue官方教程也给出了自己的一句话解释.就是教程开头的第一句话 Vu ...

  3. 【学习方法】如何快速地进行阅读?如何在阅读的时候快速理解其中的内容?

    文章目录 如何快速阅读并理解一本书呢? 知乎:如何提高快速阅读的理解程度?如何快速进入学习状态? 关于各种阅读现象的解决方法 快速阅读术 快速阅读技巧方法和要注意的问题 如何用快速阅读法读技术性文章 ...

  4. 面向流行性疾病科普的用户问题理解与答案内容组织

    摘要 [目的] 为改善人们查找并理解科普信息的方式,构建基于流行性疾病知识图谱的问答系统,重点改进对用户问题的理解,以及对答案内容的组织,降低科普受众理解专业知识的门槛.[方法] 基于多种健康信息源总 ...

  5. ARM汇编——PC和LR寄存器理解

    0.前言 既然学C/C++,不了解一下嵌入式有点不合适,了解嵌入式之前看了一点汇编,那些寄存器太特么有意思了.讲真的,硬件确实比软件要复杂一些. 对了,先推荐一首歌,<New Boy>-- ...

  6. 集成学习需要理解的一些内容

    本系列为深入篇,尽可能完善专题知识,并不会所有的都会出现在面试中,更多内容,详见:Reflection_Summary,欢迎交流. 另外,欢迎大家关注我的个人bolg,知乎,更多代码内容欢迎follo ...

  7. 如何用python查看pyc文件_如何理解.pyc文件内容

    .pyc文件包含一些元数据和一个^{}edcode对象:加载code对象并反汇编使用:import dis, marshal, sys # Header size changed in 3.3. It ...

  8. CFSSL: 证书管理工具:5:理解CSR文件内容

    这篇文章以Kubernetes集群创建时所使用的证书为例,对CRS文件内容结合具体内容进行解释. 事前准备 [root@liumiaocn cert]# ls ca-config.json ca.cs ...

  9. 博弈(部分帮助理解的转载内容+部分自我阐述)

    首先通常的Nim游戏的定义是这样的:有若干堆石子,每堆石子的数量都是有限的,合法的移动是"选择一堆石子并拿走若干颗(不能不拿)",如果轮到某个人时所有的石子堆都已经被拿空了,则判负 ...

最新文章

  1. java如何使用水晶报表_Java操作水晶报表
  2. 新一代組合創新架構師_學習地圖
  3. Objective-C基础笔记(3)OC的内存管理
  4. 关闭后天 树莓派_陪你一起玩树莓派-系统安装
  5. linux 服务器 iptables 防止arp病毒,linux环境下防arp解决方法
  6. 吴恩达深度学习5.2笔记_Sequence Models_自然语言处理与词嵌入
  7. 稀疏矩阵------三元组存储---笔记
  8. HDU4282 A very hard mathematic problem 快速幂
  9. 总结oninput、onchange与onpropertychange事件的使用方法和差别
  10. 基础篇——树莓派通用引脚定义
  11. 【观察】OLED电视,凭什么成为游戏玩家的新宠?
  12. hadoop测试环境完全分布式安装配置
  13. python使用turtle绘制一个正方形
  14. 第一天的学习内容----Excel自动化处理
  15. Xcode6解决storyboard没有箭头的问题
  16. Mac设计的必备设计软件,看看你还差什么
  17. 小米笔记本降价销售或预示其销售未如理想
  18. ios APP 制作流程
  19. iOS开发微信支付的介绍与实现
  20. 搜索引擎技术 —— 检索模型

热门文章

  1. winform程序捕获全局异常,对错误信息写入日志并弹窗
  2. Udev串口通讯,对于多个ttyUSB,如何自动识别?
  3. CVPR2020事件相机(Event Camera)研究文章汇总
  4. CVPR2020文章汇总 | 点云处理、三维重建、姿态估计、SLAM、3D数据集等(12篇)
  5. 事件相机角点检测,从原理到demo
  6. LiteSeg: 一种用于语义分割的轻量级ConvNet
  7. 那些年,我们一起刷过的计算机视觉比赛
  8. ThreeJS 屏幕坐标与世界坐标互转
  9. linux常用快捷命令(不断更新)
  10. spring 源码 找不到 taskprovider_一步一步构建Spring5源码