详解HMM模型原理 及 实现(之四:matlab实现曲线分类)
本文详解paper “A Tutorial on HMMs and Selected Applications in Speech Recognition"并进行matlab实现(尽量用其他编程语言通用的实现)
**为方便阅读代码,注释部分用python的”#"
实现HMM模型用于简单的曲线分类
先定义HMM变量
曲线在T个时刻取值
observation定义为曲线可以取的值,这里先把曲线做归一化,然后从0到1之间以0.1为间隔切为10个区间,依次标号1到10,那么observation就有10个,为1到10的值
train_data定义为训练的曲线集,集中到一个矩阵,每行为一个observation序列,行数为train_data的数量
N为state数,这里设为5
maxIter = 100; #迭代次数N = 5; #number of statesM = 10; #number of observationsT = size(train_data, 2); #training data列数应一致
初始化HMM参数,可以用均匀分布,也可以用随机数
这里pai和A用均匀分布,B用随机分布
pai = 1/N * ones(N,1);A = 1/N * ones(N,N); #state transition matrixB = rand(N,M); #row: states, col: observations
初始化计算过程中的变量alpha, beta, gamma, xi
xi的size本来应该是state * state * T
但注意在计算aij时只用到了xi的1到T-1时刻求和,因此减掉一个维度T,直接定义为1到T-1时刻求和的xi, 变量定义为xi_sumT_1
alpha = zeros([N, T]); #row: states, col: time, for calculating problem 1beta = zeros([N, T]); #row: states, col: time, for calculating problem 1gamma = zeros([N, T]); #row: states, col: time, for calculating problem 2#xi = zeros([N*N, T-1]); #row: state*state, col:time-1, for calculating problem 3 xi_sumT_1 = zeros(N, N); #直接对t时刻求和 row:states, col:states, for calculating problem 3trainNum = size(train_data, 1);
另外一些辅助变量
iter = 1; #迭代次数计数器converged = 0; #0:未收敛 1:收敛previous_loglik = -inf; #记录前一次likelihoodconverge_thres = 1e-4; #判断收敛的阈值
HMM设计的3个基本问题:
- 给定一个HMM模型,一个观测信号序列,估计出序列的概率
给出observation序列, 模型lambda=(A,B,pi), 计算P(O | lambda)
即模型与Observation有多匹配 - 决定最好的模型states
给出observation序列,模型lambda=(A,B,pi), 选择state序列Q=q1q2…qT
即探索隐性状态 - 调整模型参数来最好地解释观测到的信号
调整lamba=(A,B,pi)使P(O | lambda)最大
即用observation进行训练
这里要训练的HMM模型是用来识别曲线的,每个曲线类型都要训练一个模型(problem3),而后输入测试曲线,计算在每个模型下的概率(problem1),概率最大的为匹配类型,达到分类效果
每个类型的模型训练都是相同的方法,因此具体写一个类型的train_data
problem3中需要用到的变量为xi
而计算xi需要用到状态转移矩阵A,state下observation概率矩阵b, problem1中的alpha和beta
state下observation概率矩阵b的计算:
根据state下observation概率矩阵B
给定一个训练曲线,这个曲线在1到T时刻有值,取值范围在observation内
那么根据每个时刻t处的observation, 和指定的state,可以在B矩阵中查找到概率,可以知道b的size为state * T, 例如state为j, 时刻t时的值为bj(Ot)
for t=1:Tb(:,t) = B(:, train_data(t));
end
计算alpha:
alpha(:, 1) = pai(:).*b(:,1);
#for j = 1:N #loop j:statefor t = 1:T-1 #alpha(j, t+1) = (A(:,j)'*alpha(:,t)).*B(j,tCurve(t)); #论文中公式 #A的每一行是Sj->S1~SN的概率,转置后每行是S1~SN->Sj的概率alpha(:, t+1) = A' * alpha(:,t).* b(:,t+1); #简化版 end
#end
loglik = log(sum(alpha(:,T))); #公式中没有log
beta:
beta = zeros(N, T);
beta(:,T) = ones(N,1); #时刻T的beta初始化为1
for t = T-1:-1:1#注释部分为论文中公式#for i = 1:N#tmp_sum = 0;#for j = 1:N#tmp_sum = A(i,j) * (b(j, t+1) .* beta(j, t+1));#end#beta(i, t) = tmp_sum;beta(:, t) = A * (b(:, t+1).*beta(:,t+1));beta(:,t) = normalise(beta(:,t)); #归一化#end
end
计算xi
xi的size本来应该是state * state * T
但注意在计算aij时只用到了xi的1到T-1时刻求和,因此减掉一个维度T,直接定义为1到T-1时刻求和的xi, 变量定义为xi_sumT_1
xi_sumT_1 = zeros(N, N);for t = 1:T-1 pro = 0;tmp = zeros(N, N);for i = 1:Nfor j = 1:Ntmp(i, j) = alpha(i, t) * A(i,j) * b(j,t+1) * beta(j, t+1);pro = pro + tmp(i, j);endendxi_sumT_1 = xi_sumT_1 + tmp./pro;end
简化为矩阵计算
for t = 1:T-1tmp = beta(:,t+1) .* b(:,t+1);xi_sumT_1 = xi_sumT_1 + normalise((A .* (alpha(:,t) * tmp')));
end
计算gamma
且
for t = 1:T#归一化满足概率条件gamma(:,t) = normalise(alpha(:,t) .* beta(:,t));
end
都计算完以后,可以为更新参数做准备,为什么说是做准备,因为如下公式中都是期望值,就是要遍历完一次所有的train_data后求出期望值,然后更新参数供下一次迭代使用
先求期望值,每做完一个train_data(i)求一次
exp_num_pai = exp_num_pai + gamma(:,1); #更新pai(初始状态概率)gamma_sumT_1 = sum(gamma(:,1:T-1), 2); #按行求和,即1:T-1的gamma求和
exp_num_A = exp_num_A + xi_sumT_1 ./repmat(gamma_sumT_1, [1,5]);gamma_sumT = sum(gamma, 2); #按行求和,即1:T的gamma求和
#更新B矩阵(state对应的observation的概率矩阵)
for obs=1:M #每个observationndx = find(train_data(i)==obs);if ~isempty(ndx) exp_num_B(:,obs) = exp_num_B(:,obs) + sum(gamma(:, ndx), 2)./gamma_sumT; end
end
当遍历完一次所有的train_data后,更新HMM参数,为满足概率和为1的条件,要归一化
pai = normalise(exp_num_pai);
A = mk_stochastic(exp_num_A); #每行归一化
B = mk_stochastic(exp_num_B); #每行归一化
这样细节部分完成了,再完成整体训练流程如下
#Training process..while(iter <= maxIter && ~converged)disp(['iteration ', num2str(iter)]);exp_num_A = zeros(N,N); #用于求A的期望值 M stepexp_num_pai = zeros(N,1); #求gamma(1)的期望值 M stepexp_num_B = zeros(N,M); #用于求bj(k)矩阵的M steploglik = 0;for i = 1 : trainNum#read one curve from train_data.. tCurve = train_data(i, :);#calculate bj(k) from Bb = calObsLik(tCurve, B);#calculate alpha..[alpha, currLik] = calAlpha(alpha, pai, A, b, tCurve);#calculate beta..beta = calBeta(beta, A, b, T, N, tCurve);#calculate xi..xi_sumT_1 = calXi(xi_sumT_1, alpha, beta, A, b, N, T);#calculate gamma..gamma = calGamma(gamma, alpha, beta, N, T);gamma_sumT_1 = sum(gamma(:,1:T-1), 2); #按行求和,即1:T-1的gamma求和gamma_sumT = sum(gamma, 2); #按行求和,即1:T的gamma求和loglik = loglik + currLik;exp_num_pai = exp_num_pai + gamma(:,1); #更新pai(初始状态概率)exp_num_A = exp_num_A + xi_sumT_1 ./repmat(gamma_sumT_1, [1,5]); #更新B矩阵(state对应的observation的概率矩阵)for o=1:Mndx = find(tCurve==o);if ~isempty(ndx)exp_num_B(:,o) = exp_num_B(:,o) + sum(gamma(:, ndx), 2)./gamma_sumT; %按论文公式endendend#归一化参数,使满足概率和为1的条件..pai = normalise(exp_num_pai);A = mk_stochastic(exp_num_A); #每行归一化B = mk_stochastic(exp_num_B); #每行归一化disp(['log likelihood: ', num2str(loglik)]);#判断是否收敛,收敛则停止迭代delta_loglik = abs(loglik - previous_loglik);avg_loglik = (abs(loglik) + abs(previous_loglik))/2;if (delta_loglik / avg_loglik) < converge_thresconverged = 1; endprevious_loglik = loglik;iter = iter + 1; #迭代次数+1end
最后把每个类别训练好的参数保存,测试时只需要load参数,然后计算
loglik = log(sum(alpha(:,T))); #公式中没有log
看哪个类别的likelihood最大,就分到哪类
详解HMM模型原理 及 实现(之四:matlab实现曲线分类)相关推荐
- 详解HMM模型 及 实现(之一:problem1)
本文详解paper "A Tutorial on HMMs and Selected Applications in Speech Recognition"并进行matlab实现( ...
- 一文详解IMU模型原理和标定选型
本文仅做学术分享,如有侵权,请联系删文. 干货下载与学习 后台回复:巴塞罗那自治大学课件,即可下载国外大学沉淀数年3D Vison精品课件 后台回复:计算机视觉书籍,即可下载3D视觉领域经典书籍pdf ...
- 【转】图形流水线中坐标变换详解:模型矩阵、视角矩阵、投影矩阵
转自:图形流水线中坐标变换详解:模型矩阵.视角矩阵.投影矩阵_sherlockreal的博客-CSDN博客_视角矩阵 图形流水线中坐标变换详解:模型矩阵.视角矩阵.投影矩阵 图形流水线中坐标变换过程 ...
- Apollo进阶课程㉘丨Apollo控制技术详解——基于模型的控制方法
原文链接:进阶课程㉘丨Apollo控制技术详解--基于模型的控制方法 PID控制是一个在工业控制应用中常见的反馈回路部件,由比例单元P.积分单元I和微分单元D组成.PID控制的基础是比例控制:积分控制 ...
- 图形流水线中坐标变换详解:模型矩阵、视角矩阵、投影矩阵
图形流水线中坐标变换详解:模型矩阵.视角矩阵.投影矩阵 图形流水线中坐标变换过程 模型矩阵:模型局部坐标系和世界坐标系之间的桥梁 1.模型局部坐标系存在的意义 2.根据模型局部坐标系中点求其在世界坐标 ...
- 公开课报名 | 详解CNN-pFSMN模型以及在语音识别中的应用
近年来,在深度学习技术的帮助下,语音识别取得了极大的进展,从实验室开始走向市场,走向实用化.基于语音识别技术的输入法.搜索和翻译等人机交互场景都有了广泛的应用. Librispeech是当前衡量语音识 ...
- 公开课 | 详解CNN-pFSMN模型以及在语音识别中的应用
近年来,在深度学习技术的帮助下,语音识别取得了极大的进展,从实验室开始走向市场,走向实用化.基于语音识别技术的输入法.搜索和翻译等人机交互场景都有了广泛的应用. Librispeech是当前衡量语音识 ...
- 【转详解步进电机工作原理】
详解步进电机工作原理[转自知乎gk-auto] 步进电机是将电脉冲信号转变为角位移或线位移的开环控制元件.在非超载的情况下,电机的转速.停止的位置只取决于脉冲信号的频率和脉冲数,而不受负载变化的影响, ...
- 电机标幺化、PI标幺化、锁相环PLL标幺化 详解电机模型相关标幺化处理
电机标幺化.PI标幺化.锁相环PLL标幺化 详解电机模型相关标幺化处理 电流环PI控制器的标幺化处理 观测器中PLL锁相环的标幺化处理 采样时间处理 这是文档,不是代码,文档中的代码均为引用举例子的 ...
最新文章
- 中国知网PCNI号码
- java 代理的三种实现方式
- Java设计模式-中介者模式
- 机房收费系统重构(五)—登陆窗口完整版
- .net随笔-vb.net打开外部程序发送键盘信号(2)
- sftp 服务器外网访问设置
- 以任务为向导建立系统的学习知识流程
- [Asp.net 5] DependencyInjection项目代码分析4-微软的实现(5)(IEnumerable补充)
- CVPR 2020 Oral | 旷视提出目前最好的密集场景目标检测算法:一个候选框,多个预测结果...
- 腾讯优测-优社区干货精选 |安卓适配之Camera拍照时快门咔嚓声
- 关于计算机用途的大学英语作文,学习使用电脑Student Use of Computers
- SetDll把Dll文件注入到.exe应用程序中
- S3C2440小板子-烧写笔记
- JMP比较组均值,检查差异
- MIT Scheme编译scm文件
- 投区块链?听听当下硅谷最火的四条投资军规
- 解决:卸载软件,看我就够了!“启动C:\\Program时出现问题,找不到指定的模块“
- ajax 与ssh结合,基于AJAX和SSH集成框架的国有资产管理系统
- Android开发虚拟机测试没问题,真机调试就出现问题,总是闪退!10秒解决!!
- 免费高速的钉钉内网穿透——阿里出品必是精品(不限速,不限流量)