现在的位置: 首页 > 综合 > 正文

【算法学习】隐性马尔科夫模型学习(翻译自Wiki)

2012年06月16日 ⁄ 综合 ⁄ 共 804字 ⁄ 字号 评论关闭

作者:gnuhpc
出处:http://www.cnblogs.com/gnuhpc/

首先从最简单的离散Markov过程入手,我们知 道,Markov随机过程具有如下的性质:在任意时刻,从当前状态转移到下一个状态的概率与当前状态之前的那些状态没有关系。所以,我们可以用一个状态转 移概率矩阵来描述它。假设我们有n个离散状态S1, S2,…Sn,我们可以构造一个矩阵A,矩阵中的元素aij表示从当前状态Si下一时刻迁移到Sj状态的概率。
但是在很多情况 下,Markov模型中的状态是我们观察不到的。例如,容器与彩球的模型:有若干个容器,每个容器中按已知比例放入各色的彩球(这样,选择了容器后,我们 可以用概率来预测取出各种彩球的可能性);我们做这样的实验,实验者从容器中取彩球——先选择一个容器,再从中抓出某一个球,只给观察者看球的颜色;这 样,每次取取出的球的颜色是可以观测到的,即o1, o2,…,但是每次选择哪个容器是不暴露给观察者的,容器的序列就组成了隐藏状态序列S1, S2,…Sn。这是一个典型的可以用HMM描述的实验。
HMM有几个重要的任务,其中之一就是期望通过观察序列来猜测背后最有可能的隐藏 序列。需要确定一个最佳判断准则。在上面的例子中,就是找到我们在实验中最有可能选择到的容器序列。Viterbi正是用来解决这个问题的算法。HMM另 外两个任务是:a) 给定一个HMM,计算一个观测序列出现的可能性;b)已知一个观测序列,HMM参数不定,如何优化这些参数使得观测序列的出现概率最大。解决前一个问题由 于状态隐蔽而较之马尔科夫链的情况大大复杂,可以用与Viberbi结构非常类似的Forward算法来解决(实际上在下面合二为一),并且在给出两个 HMM模型时要可以选择一个更好的。而后者可以用Baum-Welch/EM算法来迭代逼近。

作者:gnuhpc
出处:http://www.cnblogs.com/gnuhpc/

抱歉!评论已关闭.