因为看一篇题为 Passive Measurement of Interference in WiFi Network with Application in Misbehavior Detection的文章,学习了马尔科夫模型。之前一直主观觉得马尔科夫模型太难,看过之后其实不过如此,恰恰相反,这个模型本身还简化了原本复杂的概率网络。《模式识别》对马尔科夫和隐马尔可夫介绍得非常详尽易懂。马尔科夫模型是一个非常useful的工具。

几个重要概念:

马尔可夫假设:在一个随着时间观测到的对象序列中,T时刻观测到某对象的概率只和T-1时观测到的对象有关系。

马尔科夫模型的表示:

  S:状态转换图中的状态集合

  A:状态转移概率矩阵,aij表示从状态i迁移到状态j的概率

  B:bij表示在状态i上观测到对象vj的概率

  p:初始状态上观测到各值的概率,是一个向量

马尔科夫的三个核心问题:

  估值问题(evaluation): 已知markov模型,和序列V,求观测到该序列的概率

  解码问题(decoding):已知模型和t时刻观测到的Vt,求最可能观测到的序列

  学习问题(Learning):已知状态集合S和观测序列V,求模型的各参数A,B,p

下面是evaluation代码(解码过程类似),前向算法

%% HMM model: A, B, initialstate, finalstate,
%state transition propability
A=[1    0   0   0; 0.2  0.3 0.1 0.4;0.2  0.5 0.2 0.1;0.8  0.1 0.0 0.1];
%b_jkv(t): v(t)'s occupation probability when the current state is w_j in time t
B=[1    0   0   0   0;0    0.3 0.4 0.1 0.2;0    0.1 0.1 0.7 0.1;0    0.5 0.2 0.1 0.2];final_state=1; %the final state
init_state=2; %the initial state%% observed sequence
V=[2,4,3,1]; %visable sequence, v1 is the empty visable symbol.
% # of states
c=size(A);
% # of time slots
T=length(V);%% HMM forward algorithm : for evaluation problem of HMM: give a HMM model, calculate P(V)
a=zeros(c, T);
for t=1:Tfor j=1:cif t==1a(j, t)=1*A(init_state, j)*B(j, V(t));elsesum=0;for i=1:csum=sum+a(i, t-1)*A(i, j);enda(j, t) = B(j, V(t))*sum;endend
end
a(1, T)

学习问题:在MATLAB中集成了hmmestimate等函数,可以完成各种问题的解决。

summary: markov其实大致分为两部分,一部分是理解状态图中的概率迁移,以及markov假设;一部分是具体实现,由于markov问题的高复杂度,才出现了前向、后向算法,而那些算法的目的只是在多项式复杂度内进行求解。

转载于:https://www.cnblogs.com/zhchngzng/p/3384282.html

传说中的Markov不过如此”相关推荐

  1. 更高的等级、更强的暴力

    史玉柱给美女玩家发6000块工资,这只能说明网游产品很丰富.竞争很激烈,并且,美女这个卖点在网游世界里也是硬通币,跟大学校园里的舞会女生免票的招徕差不多. 史玉柱的这个营销策略,延续了他备受指责的利用 ...

  2. 也谈MCMC方法与Gibbs抽样

    个人博客传送门:点击打开链接 MCMC,即传说中的Markov Chain Mento Carlo方法.其主要用于统计推理中进行模拟抽样,尤其在贝叶斯推理中有着非常广泛的应用.如算法模型的后验参数估计 ...

  3. Probability, Matringale,Markov Chain, MCMC

    一.基本知识 1. 条件概率 条件概率是指在某件事情已经发生的前提下,另一件事情在此基础上发生的概率,举例来说P(A丨B)表示B发生的基础上,A也发生的概率,基本公式为: 2. 条件期望 在上述概率下 ...

  4. martingale、markov chain、Monte Carlo、MCMC

    文章结构如下: 1: MCMC 1.1 MCMC是什么 1.2 为什么需要MCMC 2: 蒙特卡罗 2.1 引入 2.2 均匀分布,Box-Muller 变换 2.3 拒绝接受采样(Acceptanc ...

  5. 马尔可夫链 (Markov Chain)是什么鬼

    作者:红猴子 链接:https://www.zhihu.com/question/26665048/answer/157852228 来源:知乎 著作权归作者所有.商业转载请联系作者获得授权,非商业转 ...

  6. 一文搞懂马尔可夫链 (Markov Chain)

    它是随机过程中的一种过程,到底是哪一种过程呢?好像一两句话也说不清楚,还是先看个例子吧. 先说说我们村智商为0的王二狗,人傻不拉几的,见人就傻笑,每天中午12点的标配,仨状态:吃,玩,睡.这就是传说中 ...

  7. [work]马尔可夫链 (Markov Chain)是什么鬼

    "随机过程随机过,实变函数学十遍,微机原理闹危机,汇编语言不会编" 1. 唯一让我彻底蒙圈的课程 这些课程真的太难了,大学里无数人为此伤透了脑筋,挂科率杠杠的.我当初也是的,特别是 ...

  8. 马尔可夫链(Markov Chain)是什么?通俗易懂

    马尔可夫链(Markov Chain) 马尔可夫链经常出现在机器学习的概念中,因为生活中很多情况都可以用马尔可夫链建模,我们先给出数学化的定义,然后再举个生活化的例子与数学公式相对应,就可以理解马尔可 ...

  9. 强化学习(三) - Gym库介绍和使用,Markov决策程序实例,动态规划决策实例

    强化学习(三) - Gym库介绍和使用,Markov决策程序实例,动态规划决策实例 1. 引言 在这个部分补充之前马尔科夫决策和动态规划部分的代码.在以后的内容我会把相关代码都附到相关内容的后面.本部 ...

  10. 强化学习(一)- 强化学习介绍、Markov决策过程和贝尔曼期望方程

    强化学习(英语:Reinforcement learning,简称RL)是机器学习中的一个领域,强调如何基于环境而行动,以取得最大化的预期利益.其灵感来源于心理学中的行为主义理论,即有机体如何在环境给 ...

最新文章

  1. 【技术综述】基于弱监督深度学习的图像分割方法综述​
  2. ERROR: Command errored out with exit status 1:
  3. 程序员面试100题之十五:数组分割
  4. 各个硬件指令集使用简单介绍
  5. C#的变迁史10 - C# 5.0 之其他增强篇
  6. Map 遍历的几种方法
  7. java 线程的join_多线程中join()
  8. 厉害了!《流浪地球》《疯狂的外星人》票房均破10亿元大关
  9. 【Oracle】使用logmnr工具挖掘日志
  10. SQL替换字段中的部分内容
  11. Pandas高级教程之:时间处理
  12. 64位Windows2003下如何正确发布VesnData.Net(VDN)
  13. 数学建模系列-预测模型(一)---神经网络模型
  14. 武汉大学计算机研究生导师,武汉大学计算机学院导师简介-丁立新
  15. ppt背景图片怎么设置?6步教你快速搞定!
  16. wget - Linux系统下载文件工具
  17. Python单元测试unittest测试框架
  18. php 许愿墙 阶段案例_许愿墙代码
  19. dra7xx DDR test
  20. 人不是被事物本身困扰是什么理论_心理学:人不是被事情本身所困扰,而是被其对事情的看法所困扰!...

热门文章

  1. 深度学习(二):传统神经网络
  2. C++ std::vector 容器 是什么
  3. FISCO BCOS源码(1)代码目录结构
  4. 区块链 性能压力测试工具Caliper
  5. java alert 乱码_在servlet中输出JS中文乱码,servlet中alert对话框出现中文乱码的解决方法...
  6. python 递归目录和文件 修改主组_python下递归遍历目录和文件的方法介绍
  7. 过新版狗php一句话,整理的最新WebSHell (php過狗一句話,過狗菜刀,2016過狗一句話,2016php免殺一句話)...
  8. aix查看文件夹大小命令_AIX5.3系统文件大小的限制
  9. bootstraptable 数字不换行_不知道这些数据录入技巧,你就凹凸了!|Excel093
  10. 基于SSM的超市积分管理系统