2017-03-15 33 views
0

我想了解NLP中最大可能性是多少。我一直在尋找這個presntation:瞭解nlp中的最大可能性

http://www.phontron.com/slides/nlp-programming-en-01-unigramlm.pdf(第9頁)

,我看到了曼寧和Schütze統計語言處理基礎相同的公式。現在

,我明白MLE的方式是這個:

我知道實驗的結果,我知道潛在分佈,但我不知道對於一個事件的概率。通過找到最有可能給出我的觀察結果的概率值,MLE幫助我找到概率(或更一般的未知參數)。

所以MLE告訴我,當任何單個事件的概率是x時,觀察某個事件的概率是最高的。

現在,如果那是真的,那爲什麼在那張幻燈片上沒有微積分?爲什麼在這種情況下的MLE是通過一個簡單的分數來計算的?我不明白這與MLE有什麼關係?

我想,MLE是一個最大化問題......?

+0

這個問題應該應該交叉驗證。在某些情況下,MLE可以表示爲觀測值的一部分。你可以用微積分來證明它。 –

+0

忘記NLP幾個小時。試圖獲得關於MLE所做的更全面的畫面,以及與其他參數估計技術相比所處的位置。看到這個:https://engineering.purdue.edu/kak/Tutorials/Trinity.pdf – user3639557

回答

0

MLE確實是一個最大化問題。在幻燈片中,他們跳過了計算結果,只是顯示了MLE的結果。如果你想看到完整的推導,你可以看看這裏3頁例如 http://statweb.stanford.edu/~susan/courses/s200/lectures/lect11.pdf

此鏈接介紹瞭如何找到多項分佈的參數最大似然估計,與同類型的計算,也導致了resuls你在幻燈片中看到。

鏈路中n對應於c(w1,…,wi−1)從你的幻燈片(因爲這是個案的總數),並且x_i在鏈路對應c(w1,…,wi)從你的幻燈片(因爲這是你想要的特定案件總數計數,在所有情況下)。