我想了解NLP中最大可能性是多少。我一直在尋找這個presntation:瞭解nlp中的最大可能性
http://www.phontron.com/slides/nlp-programming-en-01-unigramlm.pdf(第9頁)
,我看到了曼寧和Schütze統計語言處理基礎相同的公式。現在
,我明白MLE的方式是這個:
我知道實驗的結果,我知道潛在分佈,但我不知道對於一個事件的概率。通過找到最有可能給出我的觀察結果的概率值,MLE幫助我找到概率(或更一般的未知參數)。
所以MLE告訴我,當任何單個事件的概率是x時,觀察某個事件的概率是最高的。
現在,如果那是真的,那爲什麼在那張幻燈片上沒有微積分?爲什麼在這種情況下的MLE是通過一個簡單的分數來計算的?我不明白這與MLE有什麼關係?
我想,MLE是一個最大化問題......?
這個問題應該應該交叉驗證。在某些情況下,MLE可以表示爲觀測值的一部分。你可以用微積分來證明它。 –
忘記NLP幾個小時。試圖獲得關於MLE所做的更全面的畫面,以及與其他參數估計技術相比所處的位置。看到這個:https://engineering.purdue.edu/kak/Tutorials/Trinity.pdf – user3639557