2012-05-25 81 views

回答

20

要舉例說明,我將使用自然語言處理的示例。想象一下,你想知道這句話的概率:

我喜歡咖啡

在馬爾可夫模型,你可以通過計算估計其概率:

P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy) 

現在,假設我們想知道這個句子的詞性標籤,也就是說,如果一個單詞是過去式,動詞,名詞等。

我們沒有觀察任何sp-of-sp部分eech標籤在那句話中,但我們假設他們在那裏。因此,我們計算了詞性標籤序列的概率。在我們的例子中,實際的順序是:

PRP-VBP-NN

別急!這是一個我們可以應用馬爾科夫模型的序列。但是我們把它稱爲隱藏的,因爲從來沒有直接觀察到部分語音序列。當然,在實踐中,我們將計算許多這樣的序列,並且我們希望找到最能解釋我們觀察結果的隱藏序列(例如,我們更可能看到由判定器生成的諸如「the」,「this」 DET)標籤)

我遇到過的最好的解釋是由勞倫斯·R·Rabiner從1989年的論文:http://www.cs.ubc.ca/~murphyk/Bayes/rabiner.pdf

3

隱馬爾可夫模型是一個雙重嵌入隨機過程,有兩個層次。

上層是馬爾可夫過程,各州都不可觀察。

實際上,觀察是上層馬爾可夫狀態的概率函數。

不同的馬爾可夫狀態將具有不同的觀察概率函數。

+10

這個答案的安全性應該用引號引用Rabiner的教程。 – Rhubarb

+0

這真的不容易理解。 – goelakash

+0

不是一個明確的答案。在所有。 – Ron

19

馬爾可夫模型是一個狀態機狀態變化是概率。在隱馬爾可夫模型中,你不知道概率,但你知道結果。

例如,當您翻轉硬幣時,可以獲得概率,但是如果看不到翻轉並且每個硬幣翻轉時有人移動五個手指中的一個,則可以採取手指移動並使用隱藏馬爾可夫模型來獲得硬幣翻轉的最佳猜測。

3

由於馬特使用的零件的詞性標記作爲HMM例子,我可以添加一個更多示例:語音識別。幾乎所有的大型詞彙連續語音識別(LVCSR)系統都是基於HMM的。

「馬特的例子」: 我喜歡咖啡

在馬爾可夫模型,你可以通過計算估計其概率:

P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy) 

在隱馬爾可夫模型,

比方說,30個不同的人閱讀句子「我享受擁抱「,我們必須認識到它。 每個人都會以不同的方式發音這個句子。所以我們不知道這個人是否意味着「擁抱」或「擁抱」。我們只會有實際單詞的概率分佈。

簡言之,隱馬爾可夫模型是一種統計馬爾可夫模型,其中被建模的系統被假定爲具有未觀察(隱藏)狀態的馬爾可夫過程。