馬爾可夫鏈模型和隱馬爾可夫模型有什麼區別?我讀過維基百科,但無法理解這些差異。馬爾可夫鏈與隱馬爾可夫模型有什麼區別?
回答
要舉例說明,我將使用自然語言處理的示例。想象一下,你想知道這句話的概率:
我喜歡咖啡
在馬爾可夫模型,你可以通過計算估計其概率:
P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy)
現在,假設我們想知道這個句子的詞性標籤,也就是說,如果一個單詞是過去式,動詞,名詞等。
我們沒有觀察任何sp-of-sp部分eech標籤在那句話中,但我們假設他們在那裏。因此,我們計算了詞性標籤序列的概率。在我們的例子中,實際的順序是:
PRP-VBP-NN
別急!這是一個我們可以應用馬爾科夫模型的序列。但是我們把它稱爲隱藏的,因爲從來沒有直接觀察到部分語音序列。當然,在實踐中,我們將計算許多這樣的序列,並且我們希望找到最能解釋我們觀察結果的隱藏序列(例如,我們更可能看到由判定器生成的諸如「the」,「this」 DET)標籤)
我遇到過的最好的解釋是由勞倫斯·R·Rabiner從1989年的論文:http://www.cs.ubc.ca/~murphyk/Bayes/rabiner.pdf
馬爾可夫模型是一個狀態機狀態變化是概率。在隱馬爾可夫模型中,你不知道概率,但你知道結果。
例如,當您翻轉硬幣時,可以獲得概率,但是如果看不到翻轉並且每個硬幣翻轉時有人移動五個手指中的一個,則可以採取手指移動並使用隱藏馬爾可夫模型來獲得硬幣翻轉的最佳猜測。
由於馬特使用的零件的詞性標記作爲HMM例子,我可以添加一個更多示例:語音識別。幾乎所有的大型詞彙連續語音識別(LVCSR)系統都是基於HMM的。
「馬特的例子」: 我喜歡咖啡
在馬爾可夫模型,你可以通過計算估計其概率:
P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy)
在隱馬爾可夫模型,
比方說,30個不同的人閱讀句子「我享受擁抱「,我們必須認識到它。 每個人都會以不同的方式發音這個句子。所以我們不知道這個人是否意味着「擁抱」或「擁抱」。我們只會有實際單詞的概率分佈。
簡言之,隱馬爾可夫模型是一種統計馬爾可夫模型,其中被建模的系統被假定爲具有未觀察(隱藏)狀態的馬爾可夫過程。
- 1. 隱馬爾可夫模型
- 2. 爲什麼在鮑姆韋爾奇算法中使用隱馬爾可夫模型與馬爾可夫模型
- 3. 用C++隱馬爾可夫模型
- 4. 隱馬爾可夫模型工具:Jahmm
- 5. 流利NHibernate:模型馬爾可夫鏈
- 6. 隱馬爾可夫在PyMC3
- 7. 馬爾可夫鏈矩陣
- 8. 模擬馬爾可夫鏈路1000次
- 9. 用Neo4J模擬馬爾可夫鏈
- 10. 使用隱馬爾可夫模型的手勢識別
- 11. 隱藏馬爾科夫模型閾值
- 12. 水平馬爾可夫化
- 13. 如何使未來的預測與隱馬爾可夫模型
- 14. 馬爾可夫鏈文本生成
- 15. 關於馬爾可夫鏈的混淆
- 16. 馬爾可夫鏈測試和實現
- 17. MATLAB Basic馬爾可夫鏈實現
- 18. 度馬爾可夫鏈的自由
- 19. 仿真馬爾可夫鏈的
- 20. JavaScript中的圖形馬爾可夫鏈
- 21. ř腳本馬爾可夫鏈
- 22. 馬爾可夫鏈和均衡概率
- 23. scipy.sparse馬爾可夫鏈平穩分佈?
- 24. J48和馬爾可夫鏈之間的區別
- 25. 隱馬爾可夫模型中的計算分佈
- 26. R中訓練隱馬爾可夫模型
- 27. 隱馬爾可夫模型的並行前後向算法
- 28. 使用隱馬爾可夫模型設計AI mp3播放器
- 29. 隱馬爾可夫模型預測下一個觀察
- 30. 使用隱馬爾可夫模型的手形分析
你應該考慮接受下面得票最多的答案。 – Ron