任务225: 时序模型

随时间维度变化的
每时每刻有相关性(t时刻数据t+1时刻数据有相关性)
时序数据长度不确定

时序数据:如股票价格、语音、文本、温度

任务226: HMM的介绍


观测值、隐式变量
z是一个隐式的状态
可以是生成模型,从状态生成观测值
也可以是判别模型

任务227: HMM的应用例子

掷硬币案例
A硬币出现正面的概率是μ1\mu_{1}μ1​
B硬币出现正面的概率是μ2\mu_{2}μ2​

小明和我隔着一块不透明的布
小明有自己的顺序投A还是投B,我只能看到硬币最后是正面还是反面朝上

由此产生两个问题
(1)inference问题
(2)parameter estimation参数估计问题
(3)P(正反正…),计算边缘概率
能不能通过观测值估算出所有的参数,能不能通过参数知道抛硬币的次序

词性标注案例

任务228: HMM的参数


A——状态转移的概率,从一个状态变成另一个状态
B——生成的概率,某一个状态下看到某个观测值的概率
π\piπ——某个状态是句首单词状态的概率

估计参数
(1)(x已知,z已知)complete case——>mle估计参数
(2)(x已知,z未知)incomplete case——>EM算法

任务229: HMM中的Inference问题

已知观测值、已知参数的情况下讨论
第一种方法:使用枚举法

枚举z不同情况的组合

第二种方法:使用维特比算法

动态规划适合解决指数级别的复杂度,但可以通过存储中间的过程来去减轻计算量

维特比算法为什么适合HMM?
HMM有限制条件——隐式变量ziz_{i}zi​只会和前后ziz_{i}zi​有联系

从左到右,每一列填好,找出最后一列哪个结点分数最大,反向把整条路径找出来

任务230-232: HMM中的F B算法


通过forward和backward算法,可以计算P(zkz_{k}zk​∣|∣xxx)的概率,方便后续的参数估计

任务233: Data Representation

原先的特征存在的问题
(1)冗余
(2)噪音
(3)有些特征不需要
更低维的空间有更好的特征表示方法

任务234: Latent Variable Models(隐变量模型)

隐变量模型——>EM算法解决掉

HMM,GMM(kmeans是其特例)都是经典的隐变量模型

传统逻辑回归(x,y)先在多了一个变量z——隐变量
隐变量gender、eye color、hair color、pose生成图片
x的维度比z的维度更高
现有z后有x
z之间有相关性
x之间没有相关性

任务235: Complete vs Incomplete Case

参数估计时

任务236: MLE for Complete and Incomplete Case

任务237: EM Derivation


任务238: Remarks on EM

EM算法不能保证全局最优解,只能保证局部最优解
EM算法,严格递增(一定会converge收敛)

任务239: K-means

任务240: K-means Cost Function


任务241: MLE for GMM


没有∑\sum∑就是kmeans

任务244: HMM中的参数

任务245: Complete vs Incomplete Case

任务247: Incomplete Case


任务248: EM算法回顾

先求z的期望,再求ln这个式子

任务249: F B算法回顾

任务250: 估计PI

任务251: 估计B


任务252: 估计A






这里讨论观测、状态变量都是离散的HMM的情况

nlp(贪心学院)——时序模型、HMM、隐变量模型、EM算法相关推荐

  1. 机器学习中的隐变量和隐变量模型

    开篇 这篇博客算我自己给自己挖的一个坑,主要想讲讲机器学习中的隐变量,今天在推导EM算法,李航在统计学习方法中的EM引入中提到了隐变量的概念(latent variable),他提到了如果我们的概率模 ...

  2. 隐变量模型(latent variable model)

    连续隐变量模型(continuous latent model)也常常被称为降维(dimensionality reduction) PCA Factor Analysis ICA 连续的情形比离散的 ...

  3. 含隐变量模型求解——EM算法

    1 EM算法的引入 1.1 EM算法 1.2 EM算法的导出 2 EM算法的收敛性 3EM算法在高斯混合模型的应用 3.1 高斯混合模型Gaussian misture model 3.2 GMM中参 ...

  4. gmm中隐变量是什么的_机器学习-隐变量模型和期望最大算法

    目录 1 隐变量模型 1.1 隐变量模型意义 1.2 高斯混合模型 GMM 1.3 其他模型(应用) 2 期望最大算法(EM) 2.1 EM算法意义 2.2 EM算法推导 2.3 EM算法 2.4 E ...

  5. 机器学习笔记之EM算法(一)隐变量与EM算法公式的收敛性

    机器学习笔记之EM算法--隐变量与EM算法公式的收敛性 引言 隐变量 示例1 示例2 EM算法 包含隐变量的混合概率模型 EM算法的表达形式 EM算法的收敛性 EM算法的收敛性证明的条件与目标 EM算 ...

  6. 哈佛NLP组论文解读:基于隐变量的注意力模型 | 附开源代码

    作者丨邓云天 学校丨哈佛大学NLP组博士生 研究方向丨自然语言处理 摘要 Attention 注意力模型在神经网络中被广泛应用.在已有的工作中,Attention 机制一般是决定性的而非随机变量.我们 ...

  7. python地图匹配_基于隐马尔科夫模型(HMM)的地图匹配(Map-Matching)算法

    1. 摘要 本篇博客简单介绍下用隐马尔科夫模型(Hidden Markov Model, HMM)来解决地图匹配(Map-Matching)问题.转载请注明网址. 2. Map-Matching(MM ...

  8. em模型补缺失值_基于EM算法数据单变量缺失处理方法研究

    龙源期刊网 http://www.qikan.com.cn 基于 EM 算法数据单变量缺失处理方法研究 作者:黄铉 来源:<科技传播> 2015 年第 20 期 摘 要 数据分析方法大都针 ...

  9. python gmm em算法 2维数据_AI大语音(六)——混合高斯模型(GMM)(深度解析)...

    1 GMM基础 高斯混合模型(GMM)指的是多个高斯分布函数的线性组合,理论上GMM可以拟合出任意类型的分布,通常用于解决同一集合下的数据包含多个不同的分布的情况. 灵魂的拷问:为什么GMM可以拟合出 ...

最新文章

  1. linux 批量启动服务器,批量部署Linux操作系统systemimager 使用
  2. java oom_Java中关于OOM的场景及解决方法
  3. Python源码阅读-内存管理机制(一)
  4. 全能型AI!用通用预训练感知模型处理多模态多任务!商汤西交港中文提出:Uni-Perceiver...
  5. 公司新来了一个质量工程师,说团队要保证 0 error,0 warning
  6. 基于XML操作辅助类
  7. 机器学习的几个误区-转载
  8. 「长乐集训 2017 Day1」区间 线段树
  9. 交互设计精髓之理解输出
  10. js验证银行卡身份证手机号中文数字金额等
  11. CF1320E Treeland and Viruses
  12. CSDN竞赛—第六期题解与感想
  13. 1. 数组:为什么数组要从0开始编号,而不是1开始呢?
  14. [读书笔记]-《高能要事》-一次做好一件事
  15. 刀片机服务器虚拟化方案,IBM刀片服务器虚拟化方案
  16. NotePad++7.5 64 bit版本以后没有plugin manger的解决方法
  17. 2026年中国大数据总体市场规模将超359亿美元
  18. 阴阳师手游服务器维护,《阴阳师》手游3月20日维护更新公告
  19. c语言求根公式编程,c语言,求根公式
  20. VSCode的撤回与取消撤回

热门文章

  1. java.util.base64
  2. 拉普拉斯金字塔融合原理公式
  3. 口语8000句--(3)享受余暇时间
  4. 人工智能轨道交通行业周刊-第4期(2022.6.27-7.3)
  5. python3词法分析(三)识别token
  6. java算法递归之小白走楼梯
  7. mac装linux fedora,桌面应用|在 MacBook Air 上安装 Fedora 26
  8. php 数组根据字母排序,php 数组 按拼音首字母 排序 并分组
  9. android分屏助手,分屏大师助手app_分屏大师app使用教程-多特软件站安卓网
  10. AlphaGo Zero「无师自通」背后的伟大与局限 | 旷视孙剑解读