写在前面

《机器学习中的数学》系列主要列举了在机器学习中用到的较多的数学知识,包括微积分,线性代数,概率统计,信息论以及凸优化等等。本系列重在描述基本概念,并不在应用的方面的做深入的探讨,如果想更深的了解某一方面的知识,请自行查找研究。

1. 信息论

1.1 信息熵

定义:用来衡量信息量的大小,信息的不确定性越大,信息熵就越大,信息的不确定性越小,信息熵就越小

表达式:

举例:

1.2 交叉熵

定义:

在信息论中,交叉熵是表示两个概率分布p,q,其中p表示真实分布,q表示非真实分布,在相同的一组事件中,其中,用非真实分布q来表示某个事件发生所需要的平均比特数。其是用来衡量在给定的真实分布下,使用非真实分布所指定的策略先出系统的不确定性所需要付出努力的大小。

表达式:

举例:

假设现在有一个样本集中两个概率分布p,q,其中p为真实分布,q为非真实分布。假如,按照真实分布p来衡量识别一个样本所需要的编码长度的期望为:

如果采用错误的分布q来表示来自真实分布p的平均编码长度,则应该是:

应用:交叉熵可在神经网络(机器学习)中作为损失函数,p表示真实标记的分布,q则为训练后的模型的预测标记分布,交叉熵损失函数可以衡量p与q的相似性

注意:

交叉熵最小只能等于信息熵,不会小于信息熵

1.3 相对熵

定义:

相对熵是交叉熵与信息熵之间的差。假设我们想知道某个策略和最优策略之间的差异,我们就可以用相对熵来衡量着两者之间的差异。

表达式:

2. 激活函数

2.1 激活函数的意义

如果不用激励函数,每一层输出都是上层输出的线性函数,无论神经网络有多少层,输出都是输入的线性组合。如果使用的话,激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用在众多的非线性模型中。

2.2 sigmoid激活函数

表达式:

函数图像:

特征:

取值范围为(0,1)有界,它可以将一个实数映射到(0,1)的区间,可以用来做二分类。

优缺点:

在特征相差比较复杂或是相差不是特别大时效果比较好,缺点是容易出现梯度消失。

sigmoid函数的导数:

2.3 Tanh激活函数

表达式:

图像:

与sigmoid函数的关系:

特点:

实际上,这是一个经过拉升的sigmoid函数,tanh在特征相差明显时的效果会很好,在循环过程中会不断扩大特征效果。

2.4 ReLU函数

表达式:

图像:

特点:

当x是正值时,它输出x,否则输出0

优缺点:

优点:迭代比较快,其导数为{0,1},可以避免梯度消失问题;缺点:当激活位于ReLU的水平区域时,梯度会是0,导致权重无法随着梯度而调整,这意味着,陷入此状态的神经元将停止对误差/输入做出反应

2.5 Softmax激活函数

表达式:

特点:

softmax用于分类过程中,它将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解,从而来进行多分类

举例:

3. 损失函数

3.1 平方损失函数

表达式:

Y-f(x)表示残差,整个式子表示的是残差平方和,我们的目标就是最小化这个目标函数值,即最小化残差的平方和,实际中我们一般使用均方差。

3.2 log损失函数

表达式:

特点:

损失函数(等式左边)表达的是样本X在分类Y的情况下,使概率P(Y|X)达到最大值。因为log函数是单调递增的,所以logP(Y|X)也会达到最大值,因此在前面加上负号之后,最大化P(Y|X)就等于最小化L了。

3.3 softmax损失函数

表达式:

3.4 Hinge损失函数

4. 过拟合与正则化

4.1 过拟合

定义:

过拟合就是训练模型的过程中,模型过渡拟合训练数据,而不能很好的繁华到测试数据集上

原因:1. 训练数据过少,数据量与数据噪声是成反比的,少量数据导致噪声很大;2. 特征数目过多导致模型过于复杂。

4.2 正则化

L1正则化:

L1会趋向于产生少量的特征,而其他的特征都是0(一些不很相关的特征)。在所有特征中只有少数特征起重要作用的情况下,选择L1比较合适,因为它能自动选择特征。

L2正则化:

L2会选择更多的特征,这些特征都会接近于0.如果所有特征中,大部分特征都能起作用,而且起的作用很平均,那么使用L2也许更合适。

机器学习中的数学(六)--信息论与激活函数相关推荐

  1. 机器学习中的数学——激活函数(十):Softplus函数

    分类目录:<机器学习中的数学>总目录 相关文章: · 激活函数:基础知识 · 激活函数(一):Sigmoid函数 · 激活函数(二):双曲正切函数(Tanh函数) · 激活函数(三): 线 ...

  2. 机器学习中的数学——激活函数(七):Softmax函数

    分类目录:<机器学习中的数学>总目录 相关文章: · 激活函数:基础知识 · 激活函数(一):Sigmoid函数 · 激活函数(二):双曲正切函数(Tanh函数) · 激活函数(三): 线 ...

  3. 机器学习中的数学——激活函数(四):Leaky ReLU函数

    分类目录:<机器学习中的数学>总目录 相关文章: · 激活函数:基础知识 · 激活函数(一):Sigmoid函数 · 激活函数(二):双曲正切函数(Tanh函数) · 激活函数(三): 线 ...

  4. 机器学习中的数学——激活函数(三): 线性整流函数(ReLU函数)

    分类目录:<机器学习中的数学>总目录 相关文章: · 激活函数:基础知识 · 激活函数(一):Sigmoid函数 · 激活函数(二):双曲正切函数(Tanh函数) · 激活函数(三): 线 ...

  5. 机器学习中的数学——激活函数(五):ELU函数

    分类目录:<机器学习中的数学>总目录 相关文章: · 激活函数:基础知识 · 激活函数(一):Sigmoid函数 · 激活函数(二):双曲正切函数(Tanh函数) · 激活函数(三): 线 ...

  6. 机器学习中的数学——激活函数(八):Swish函数

    分类目录:<机器学习中的数学>总目录 相关文章: · 激活函数:基础知识 · 激活函数(一):Sigmoid函数 · 激活函数(二):双曲正切函数(Tanh函数) · 激活函数(三): 线 ...

  7. 机器学习中的数学——距离定义(十六):豪斯多夫距离(Hausdorff Distance)

    分类目录:<机器学习中的数学>总目录 相关文章: · 距离定义:基础知识 · 距离定义(一):欧几里得距离(Euclidean Distance) · 距离定义(二):曼哈顿距离(Manh ...

  8. 机器学习中的数学——常用概率分布(六):指数分布(Exponential分布)

    分类目录:<机器学习中的数学>总目录 相关文章: · 常用概率分布(一):伯努利分布(Bernoulli分布) · 常用概率分布(二):范畴分布(Multinoulli分布) · 常用概率 ...

  9. 机器学习中的数学——距离定义(六):马氏距离(Mahalanobis Distance)

    分类目录:<机器学习中的数学>总目录 相关文章: · 距离定义:基础知识 · 距离定义(一):欧几里得距离(Euclidean Distance) · 距离定义(二):曼哈顿距离(Manh ...

最新文章

  1. 36氪研究院:机器人行业产业图谱
  2. python之datetime模块
  3. pcie3.0一条通道带宽_小技巧|内存双通道提升性能
  4. 程序员需培养企业家式的能力
  5. large_margin
  6. C# Random生成相同随机数的解决方案
  7. HDOJ--1864--最大报销额
  8. MFC编程入门之二十一(常用控件:编辑框Edit Control)
  9. C++ {}作用域 return
  10. 被脱库咋办?KMS 给你解决方案!
  11. 外架小横杆外露长度规范要求_外架小横杆外露长度
  12. Android小白快速编写APP登录界面
  13. linux环境,tomcat 关闭命令sh shutdown.sh 命令执行后进程没有关闭
  14. VideoJS 网页直播实现双击全屏
  15. vue实现页面点击页面滚动-禁止鼠标滑轮滚动页面
  16. vue--实现跑马灯效果
  17. 遗传算法解决tsp问题(基于python)
  18. 可信、安全、稳定构建金融科技新局面
  19. 【工程数学】若干种解高次方程的算法
  20. 2020年中国5G基站建设行业报告.pdf (附下载)

热门文章

  1. Php刷新重载id,php 使用 __call重载
  2. python 天勤 金叉 编程代码_Python量化策略开发框架,固定的套路、突破策略的福音...
  3. 项目管理、bug管理工具 ---禅道使用流程
  4. Cookie案例-显示用户的上次访问时间代码实现
  5. Oracle对表空间、用户、用户权限的操作
  6. Git_Eclipse:[1]Git安装插件
  7. 【计算机视觉】运动目标检测算法文献阅读笔记
  8. 一次MySQL死锁问题解决
  9. 谈谈如何学习Linux操作系统
  10. vs2010 设计视图中控件无法加载,提示未将对象设置到对象的实例。