nlp(贪心学院)——时序模型、HMM、隐变量模型、EM算法
任务225: 时序模型
随时间维度变化的
每时每刻有相关性(t时刻数据t+1时刻数据有相关性)
时序数据长度不确定
时序数据:如股票价格、语音、文本、温度
任务226: HMM的介绍
观测值、隐式变量
z是一个隐式的状态
可以是生成模型,从状态生成观测值
也可以是判别模型
任务227: HMM的应用例子
掷硬币案例
A硬币出现正面的概率是μ1\mu_{1}μ1
B硬币出现正面的概率是μ2\mu_{2}μ2
小明和我隔着一块不透明的布
小明有自己的顺序投A还是投B,我只能看到硬币最后是正面还是反面朝上
由此产生两个问题
(1)inference问题
(2)parameter estimation参数估计问题
(3)P(正反正…),计算边缘概率
能不能通过观测值估算出所有的参数,能不能通过参数知道抛硬币的次序
词性标注案例
任务228: HMM的参数
A——状态转移的概率,从一个状态变成另一个状态
B——生成的概率,某一个状态下看到某个观测值的概率
π\piπ——某个状态是句首单词状态的概率
估计参数
(1)(x已知,z已知)complete case——>mle估计参数
(2)(x已知,z未知)incomplete case——>EM算法
任务229: HMM中的Inference问题
已知观测值、已知参数的情况下讨论
第一种方法:使用枚举法
枚举z不同情况的组合
第二种方法:使用维特比算法
动态规划适合解决指数级别的复杂度,但可以通过存储中间的过程来去减轻计算量
维特比算法为什么适合HMM?
HMM有限制条件——隐式变量ziz_{i}zi只会和前后ziz_{i}zi有联系
从左到右,每一列填好,找出最后一列哪个结点分数最大,反向把整条路径找出来
任务230-232: HMM中的F B算法
通过forward和backward算法,可以计算P(zkz_{k}zk∣|∣xxx)的概率,方便后续的参数估计
任务233: Data Representation
原先的特征存在的问题
(1)冗余
(2)噪音
(3)有些特征不需要
更低维的空间有更好的特征表示方法
任务234: Latent Variable Models(隐变量模型)
隐变量模型——>EM算法解决掉
HMM,GMM(kmeans是其特例)都是经典的隐变量模型
传统逻辑回归(x,y)先在多了一个变量z——隐变量
隐变量gender、eye color、hair color、pose生成图片
x的维度比z的维度更高
现有z后有x
z之间有相关性
x之间没有相关性
任务235: Complete vs Incomplete Case
参数估计时
任务236: MLE for Complete and Incomplete Case
任务237: EM Derivation
任务238: Remarks on EM
EM算法不能保证全局最优解,只能保证局部最优解
EM算法,严格递增(一定会converge收敛)
任务239: K-means
任务240: K-means Cost Function
任务241: MLE for GMM
没有∑\sum∑就是kmeans
任务244: HMM中的参数
任务245: Complete vs Incomplete Case
任务247: Incomplete Case
任务248: EM算法回顾
先求z的期望,再求ln这个式子
任务249: F B算法回顾
任务250: 估计PI
任务251: 估计B
任务252: 估计A
这里讨论观测、状态变量都是离散的HMM的情况
nlp(贪心学院)——时序模型、HMM、隐变量模型、EM算法相关推荐
- 机器学习中的隐变量和隐变量模型
开篇 这篇博客算我自己给自己挖的一个坑,主要想讲讲机器学习中的隐变量,今天在推导EM算法,李航在统计学习方法中的EM引入中提到了隐变量的概念(latent variable),他提到了如果我们的概率模 ...
- 隐变量模型(latent variable model)
连续隐变量模型(continuous latent model)也常常被称为降维(dimensionality reduction) PCA Factor Analysis ICA 连续的情形比离散的 ...
- 含隐变量模型求解——EM算法
1 EM算法的引入 1.1 EM算法 1.2 EM算法的导出 2 EM算法的收敛性 3EM算法在高斯混合模型的应用 3.1 高斯混合模型Gaussian misture model 3.2 GMM中参 ...
- gmm中隐变量是什么的_机器学习-隐变量模型和期望最大算法
目录 1 隐变量模型 1.1 隐变量模型意义 1.2 高斯混合模型 GMM 1.3 其他模型(应用) 2 期望最大算法(EM) 2.1 EM算法意义 2.2 EM算法推导 2.3 EM算法 2.4 E ...
- 机器学习笔记之EM算法(一)隐变量与EM算法公式的收敛性
机器学习笔记之EM算法--隐变量与EM算法公式的收敛性 引言 隐变量 示例1 示例2 EM算法 包含隐变量的混合概率模型 EM算法的表达形式 EM算法的收敛性 EM算法的收敛性证明的条件与目标 EM算 ...
- 哈佛NLP组论文解读:基于隐变量的注意力模型 | 附开源代码
作者丨邓云天 学校丨哈佛大学NLP组博士生 研究方向丨自然语言处理 摘要 Attention 注意力模型在神经网络中被广泛应用.在已有的工作中,Attention 机制一般是决定性的而非随机变量.我们 ...
- python地图匹配_基于隐马尔科夫模型(HMM)的地图匹配(Map-Matching)算法
1. 摘要 本篇博客简单介绍下用隐马尔科夫模型(Hidden Markov Model, HMM)来解决地图匹配(Map-Matching)问题.转载请注明网址. 2. Map-Matching(MM ...
- em模型补缺失值_基于EM算法数据单变量缺失处理方法研究
龙源期刊网 http://www.qikan.com.cn 基于 EM 算法数据单变量缺失处理方法研究 作者:黄铉 来源:<科技传播> 2015 年第 20 期 摘 要 数据分析方法大都针 ...
- python gmm em算法 2维数据_AI大语音(六)——混合高斯模型(GMM)(深度解析)...
1 GMM基础 高斯混合模型(GMM)指的是多个高斯分布函数的线性组合,理论上GMM可以拟合出任意类型的分布,通常用于解决同一集合下的数据包含多个不同的分布的情况. 灵魂的拷问:为什么GMM可以拟合出 ...
最新文章
- linux 批量启动服务器,批量部署Linux操作系统systemimager 使用
- java oom_Java中关于OOM的场景及解决方法
- Python源码阅读-内存管理机制(一)
- 全能型AI!用通用预训练感知模型处理多模态多任务!商汤西交港中文提出:Uni-Perceiver...
- 公司新来了一个质量工程师,说团队要保证 0 error,0 warning
- 基于XML操作辅助类
- 机器学习的几个误区-转载
- 「长乐集训 2017 Day1」区间 线段树
- 交互设计精髓之理解输出
- js验证银行卡身份证手机号中文数字金额等
- CF1320E Treeland and Viruses
- CSDN竞赛—第六期题解与感想
- 1. 数组:为什么数组要从0开始编号,而不是1开始呢?
- [读书笔记]-《高能要事》-一次做好一件事
- 刀片机服务器虚拟化方案,IBM刀片服务器虚拟化方案
- NotePad++7.5 64 bit版本以后没有plugin manger的解决方法
- 2026年中国大数据总体市场规模将超359亿美元
- 阴阳师手游服务器维护,《阴阳师》手游3月20日维护更新公告
- c语言求根公式编程,c语言,求根公式
- VSCode的撤回与取消撤回
热门文章
- java.util.base64
- 拉普拉斯金字塔融合原理公式
- 口语8000句--(3)享受余暇时间
- 人工智能轨道交通行业周刊-第4期(2022.6.27-7.3)
- python3词法分析(三)识别token
- java算法递归之小白走楼梯
- mac装linux fedora,桌面应用|在 MacBook Air 上安装 Fedora 26
- php 数组根据字母排序,php 数组 按拼音首字母 排序 并分组
- android分屏助手,分屏大师助手app_分屏大师app使用教程-多特软件站安卓网
- AlphaGo Zero「无师自通」背后的伟大与局限 | 旷视孙剑解读